آنچه در تاریکی کمین می کند: هدف گرفتن سایه هوش مصنوعی

آنچه در تاریکی کمین می کند: هدف گرفتن سایه هوش مصنوعی

What Lurks in the Dark: Taking Aim at Shadow AI PlatoBlockchain Data Intelligence. Vertical Search. Ai.

تیم های امنیتی در فصل هالووین با کابوس جدیدی روبرو هستند: ظهور هوش مصنوعی مولد (AI). ابزارهای مولد هوش مصنوعی دوره جدیدی از وحشت را برای افسران ارشد امنیت اطلاعات (CISOs) به راه انداخته اند، از تقویت دیپ فیک هایی که تقریباً از واقعیت قابل تشخیص نیستند تا ایجاد ایمیل های فیشینگ پیچیده که برای دسترسی به لاگین ها و سرقت هویت به طور شگفت انگیزی معتبر به نظر می رسند. نمایش ترسناک مولد هوش مصنوعی فراتر از مدیریت هویت و دسترسی است، با بردارهای حمله که از روش های هوشمندتر برای نفوذ به کد تا افشای داده های اختصاصی حساس را شامل می شود.

بر اساس یک نظرسنجی از هیئت کنفرانس، 56٪ از کارکنان هستند استفاده از هوش مصنوعی مولد در محل کار، اما فقط 26٪ می گویند که سازمان آنها یک سیاست هوش مصنوعی مولد در حال اجرا دارد. در حالی که بسیاری از شرکت‌ها در تلاش برای اعمال محدودیت‌هایی در مورد استفاده از هوش مصنوعی مولد در محل کار هستند، جستجوی قدیمی برای بهره‌وری به این معنی است که درصد نگران‌کننده‌ای از کارمندان بدون برکت فناوری اطلاعات یا فکر کردن به عواقب احتمالی از هوش مصنوعی استفاده می‌کنند. به عنوان مثال، پس از اینکه برخی از کارمندان اطلاعات حساس شرکت را در ChatGPT وارد کردند، سامسونگ استفاده از آن و همچنین ابزارهای هوش مصنوعی مشابه را ممنوع کرد.

Shadow IT - که در آن کارکنان از ابزارهای غیرمجاز فناوری اطلاعات استفاده می کنند - برای چندین دهه در محل کار رایج بوده است. اکنون، همانطور که هوش مصنوعی مولد آنقدر سریع تکامل می‌یابد که CISO ها نمی‌توانند به طور کامل بفهمند که با چه چیزی مبارزه می‌کنند، یک پدیده جدید ترسناک در حال ظهور است: هوش مصنوعی سایه.

از Shadow IT تا Shadow AI

تنش اساسی بین تیم‌های فناوری اطلاعات وجود دارد که خواهان کنترل برنامه‌ها و دسترسی به داده‌های حساس به منظور محافظت از شرکت هستند، و کارمندانی که همیشه به دنبال ابزارهایی هستند که به آنها کمک می‌کند کارهای بیشتری را سریع‌تر انجام دهند. علیرغم راه‌حل‌های بی‌شماری در بازار که IT سایه را هدف قرار داده و دسترسی کارگران به ابزارها و پلتفرم‌های تایید نشده را دشوارتر می‌کند، بیش از سه نفر از هر 10 کارمند گزارش دادند. با استفاده از ارتباطات و ابزارهای همکاری غیرمجاز سال گذشته است.

در حالی که نیات اکثر کارمندان در جای درستی است - انجام کارهای بیشتر - هزینه ها می تواند وحشتناک باشد. تخمین زده می شود که یک سوم موفقیت آمیز باشد حملات سایبری از IT سایه می آیند و می تواند میلیون ها هزینه داشته باشد. علاوه بر این، 91٪ از متخصصان فناوری اطلاعات احساس می کنند فشار برای به خطر انداختن امنیت برای سرعت بخشیدن به عملیات تجاری، و 83 درصد از تیم های فناوری اطلاعات احساس می کنند که اجرای سیاست های امنیت سایبری غیرممکن است.

هوش مصنوعی مولد می‌تواند بعد ترسناک دیگری را به این مخمصه اضافه کند، وقتی ابزارها داده‌های حساس شرکت را جمع‌آوری می‌کنند که در صورت افشای آن، می‌تواند به اعتبار شرکت آسیب برساند.

با توجه به این تهدیدات، علاوه بر سامسونگ، بسیاری از کارفرمایان نیز هستند محدود کردن دسترسی به هوش مصنوعی مولد قدرتمند ابزار. در همان زمان، کارمندان بارها و بارها می شنوند که بدون استفاده از هوش مصنوعی عقب خواهند ماند. بدون راه‌حل‌هایی که به آنها کمک می‌کند تا جلوتر بمانند، کارگران همان کاری را انجام می‌دهند که همیشه انجام می‌دهند - امور را به دست خود می‌گیرند و از راه‌حل‌هایی که برای ارائه نیاز دارند، با یا بدون اجازه IT استفاده می‌کنند. بنابراین جای تعجب نیست که هیئت کنفرانس دریافته است که بیش از نیمی از کارمندان در حال حاضر از هوش مصنوعی مولد در محل کار استفاده می کنند - مجاز یا غیر مجاز.

اجرای یک جن گیری با هوش مصنوعی سایه

برای سازمان‌هایی که با هوش مصنوعی سایه‌ای گسترده مواجه هستند، مدیریت این رژه بی‌پایان تهدیدها ممکن است مانند تلاش برای زنده ماندن از یک قسمت از The Walking Dead باشد. و با وجود پلتفرم‌های جدید هوش مصنوعی که به طور مداوم در حال ظهور هستند، برای بخش‌های فناوری اطلاعات دشوار است که بدانند از کجا شروع کنند.

خوشبختانه، استراتژی‌های آزمایش‌شده‌ای وجود دارد که رهبران فناوری اطلاعات و CISO می‌توانند برای ریشه‌کن کردن ابزارهای غیرمجاز هوش مصنوعی و ترساندن آن‌ها قبل از اینکه شرکت‌های خود را تصاحب کنند، اجرا کنند.

  • ارواح دوستانه را بپذیرید. کسب‌وکارها می‌توانند با ارائه فعالانه ابزارهای هوش مصنوعی به کارگران خود سود ببرند که به آنها کمک می‌کند بهره‌وری بیشتری داشته باشند، اما همچنین می‌توانند تحت نظارت IT بررسی، مستقر و مدیریت شوند. سازمان ها با ارائه ابزارهای ایمن هوش مصنوعی مولد و اعمال سیاست هایی برای نوع داده های بارگذاری شده، به کارگران نشان می دهند که شرکت در موفقیت آنها سرمایه گذاری می کند. این یک فرهنگ حمایت و شفافیت ایجاد می کند که می تواند امنیت طولانی مدت بهتر و بهره وری را بهبود بخشد.
  • شیاطین را مورد توجه قرار دهید. بسیاری از کارگران به سادگی درک نمی کنند که استفاده از هوش مصنوعی مولد می تواند شرکت آنها را در معرض خطرات مالی فوق العاده ای قرار دهد. برخی ممکن است به وضوح عواقب عدم رعایت قوانین را درک نکنند و یا ممکن است به خاطر پیروی از آنها احساس مسئولیت نکنند. نگران کننده، حرفه ای های امنیتی بیشتر از سایر کارگران (37٪ در مقابل 25٪) می گویند که هنگام تلاش برای حل مشکلات IT خود، بر اساس سیاست های شرکت خود کار می کنند. درگیر کردن کل نیروی کار، از مدیر عامل تا کارگران خط مقدم، در آموزش منظم در مورد خطرات موجود و نقش آنها در پیشگیری و اجرای عاقلانه تخلفات ضروری است.
  • شکارچیان ارواح خود را دوباره دسته بندی کنید. CISO ها برای ارزیابی مجدد هویت موجود و قابلیت های مدیریت دسترسی برای اطمینان از نظارت بر راه حل های غیرمجاز AI و می توانند به سرعت تیم های برتر خود را در صورت لزوم اعزام کنند، به خوبی خدمت می کنند.

هوش مصنوعی سایه کسب و کارها را آزار می دهد و جلوگیری از آن ضروری است. برنامه ریزی هوشمندانه، نظارت دقیق، ارتباطات فعال و ابزارهای امنیتی به روز می تواند به سازمان ها کمک کند تا از تهدیدات احتمالی جلوتر بمانند. اینها به آنها کمک می کند تا ارزش تجاری متحول کننده هوش مصنوعی مولد را بدون قربانی شدن به نقض های امنیتی که همچنان معرفی می کند، بدست آورند.

تمبر زمان:

بیشتر از تاریک خواندن