قابلیت‌های امنیت سایبری ارتش ایالات متحده برای تقویت OpenAI

قابلیت‌های امنیت سایبری ارتش ایالات متحده برای تقویت OpenAI

قابلیت‌های امنیت سایبری ارتش ایالات متحده برای دریافت OpenAI، هوش داده‌های PlatoBlockchain را تقویت می‌کند. جستجوی عمودی Ai.

مدیران این آزمایشگاه این هفته در مجمع جهانی اقتصاد (WEF) در داووس گفتند که OpenAI در حال توسعه قابلیت‌های امنیت سایبری مبتنی بر هوش مصنوعی برای ارتش ایالات متحده است و کار امنیت انتخابات خود را به سرعت بالا می‌برد.

افکار عمومی در مورد کار با نیروهای مسلح چند روز پس از یک تغییر در زبان سیاست OpenAI، که قبلاً استفاده از مدل‌های هوش مصنوعی تولیدی خود را برای برنامه‌های «نظامی و جنگی» و همچنین «تولید بدافزار» با فناوری خود ممنوع می‌کرد. این محدودیت ها اکنون از آثار سازنده ChatGPT ناپدید شده اند. با این حال، این آزمایشگاه فوق تاکید کرد که هنوز قرار نیست از فناوری آن برای خشونت، تخریب یا جاسوسی ارتباطات استفاده شود.

یکی از سخنگویان OpenAI گفت: «سیاست ما اجازه نمی‌دهد از ابزارهای ما برای آسیب رساندن به مردم، توسعه سلاح، نظارت بر ارتباطات، یا زخمی کردن دیگران یا تخریب اموال استفاده شود. ثبت نام امروز.

«اما موارد استفاده از امنیت ملی وجود دارد که با مأموریت ما همسو است.

ما در حال حاضر با دارپا کار می‌کنیم تا ابزارهای جدید امنیت سایبری را برای ایمن کردن نرم‌افزار منبع باز که زیرساخت‌های حیاتی و صنعت به آن وابسته است، ایجاد کنیم. مشخص نبود که آیا این موارد استفاده مفید تحت «نظامی» در سیاست‌های قبلی ما مجاز بوده است یا خیر. بنابراین هدف از به‌روزرسانی خط‌مشی ما ارائه شفافیت و توانایی انجام این بحث‌ها است.» 

روز سه شنبه، طی یک مصاحبه آنا ماکانجو، معاون امور جهانی OpenAI در WEF shindig برای رهبران جهان گفت که مشارکت آن با پنتاگون شامل توسعه نرم‌افزار امنیت سایبری منبع باز است. او گفت که OpenAI همچنین مذاکراتی را با دولت ایالات متحده آغاز کرده است که چگونه فناوری آن می تواند به جلوگیری از خودکشی کهنه سربازان کمک کند.

ماکانجو گفت: «از آنجایی که ما قبلاً چیزی را که اساساً یک ممنوعیت عمومی برای نظامیان داشتیم، بسیاری از مردم فکر می کردند که بسیاری از این موارد استفاده را ممنوع می کند، که مردم فکر می کنند با آنچه ما می خواهیم در جهان ببینیم هماهنگ است. 

با این حال، با وجود حذف «نظامی و جنگ» به همراه سایر «استفاده‌های غیرمجاز» برای ChatGPT، ماکانجو گفت OpenAI ممنوعیت استفاده از مدل‌های خود را برای توسعه سلاح‌هایی برای آسیب رساندن به مردم حفظ می‌کند. 

همچنین طی همان مصاحبه، سام آلتمن، مدیر عامل OpenAI، گفت که شرکت بیز در حال انجام اقداماتی است تا اطمینان حاصل کند که ابزارهای هوش مصنوعی تولیدی آن برای انتشار اطلاعات نادرست مربوط به انتخابات استفاده نمی شود. 

همچنین از مشابهی پیروی می کند فشار توسط مایکروسافتبزرگترین سرمایه گذار OpenAI، که در ماه نوامبر یک استراتژی پنج مرحله ای حفاظت از انتخابات را برای «ایالات متحده و سایر کشورهایی که در آن انتخابات حیاتی در سال 2024 برگزار می شود» اعلام کرد. 

آلتمن روز سه شنبه گفت: «در این انتخابات چیزهای زیادی در خطر است.

این یک روز پس از رئیس جمهور پیشین دونالد ترامپ است برنده بزرگ در کنگره آیووا در روز دوشنبه.

و همه این موضوعات - هوش مصنوعی، امنیت سایبری و اطلاعات نادرست - نقش مهمی در دستور کار دارند. رهبران جهان ملاقات می کنند این هفته در داووس

بر اساس WEF گزارش جهانی ریسک 2024که هفته گذشته منتشر شد، "اطلاعات غلط و اطلاعات نادرست" بزرگترین خطر کوتاه مدت جهانی است که "ناامنی سایبری" در رتبه چهارم قرار دارد.

ظهور هوش مصنوعی مولد این چالش ها را تشدید می کند، به طوری که 56 درصد از مدیران در WEF مورد بررسی قرار گرفتند. نشست سالانه امنیت سایبری در نوامبر 2023 گفت هوش مصنوعی مولد به مهاجمان و مزیت خواهد داد بیش از مدافعان در دو سال آینده.

برنارد مونتل، مدیر فنی EMEA در Tenable، گفت: «نگرانی خاص در مورد استفاده از فناوری‌های هوش مصنوعی برای تقویت قابلیت‌های جنگ سایبری، با دلیل موجه است. ثبت نام

وی افزود: «در حالی که هوش مصنوعی در 12 تا 24 ماه گذشته پیشرفت‌های فناوری نجومی داشته است، امروز اجازه دادن به دستگاهی مستقل برای قضاوت نهایی غیرقابل درک است.»

«در حالی که هوش مصنوعی قادر است برخی از اقداماتی را که باید انجام شود به سرعت شناسایی و خودکار می کند، ضروری است که انسان ها کسانی باشند که تصمیمات مهمی را در مورد مکان و زمان اقدام از طریق هوش مصنوعی ارائه می دهند.» ®

تمبر زمان:

بیشتر از ثبت نام