Three security vulnerabilities unearthed in the extension functions ChatGPT employs open the door to unauthorized, zero-click access to users’ accounts and services, including sensitive repositories on platforms like GitHub.
ChatGPT plug-ins and custom versions of ChatGPT published by developers extend the capabilities of the AI model, enabling interactions with external services by granting OpenAI’s popular generative AI chatbot access and permissions to execute tasks on various third-party websites, including GitHub and Google Drive.
Salt Labs researchers uncovered the three critical vulnerabilities affecting ChatGPT, the first of which occurs during the installation of new plug-ins, when ChatGPT redirects users to plug-in websites for code approval. By exploiting this, attackers could trick users into approving malicious code, leading to automatic installation of unauthorized plug-ins and potential follow-on account compromise.
Second, PluginLab, a framework for plug-in development, lacks proper user authentication, enabling attackers to impersonate users and execute account takeovers, as seen with the “AskTheCode” plug-in connecting ChatGPT with GitHub.
Finally, Salt researchers found that certain plug-ins were susceptible to OAuth redirection manipulation, allowing attackers to insert malicious URLs and steal user credentials, facilitating further account takeovers.
The report noted the issues have since been fixed and there was no evidence that the vulnerabilities had been exploited, so users should update their apps as soon as possible.
GenAI Security Issues Put Vast Ecosystem at Risk
Yaniv Balmas, vice president of research at Salt Security, says the issues the research team found may put hundreds of thousands of users and organizations at risk.
“Security leaders at any organization must better understand the risk, so they should review what plug-ins and GPTs their company is using and what third-party accounts are exposed through those plug-ins and GPTs,” he says. “As a starting point, we would suggest making a security review of their code.”
For plug-ins and GPT developers, Balmas recommends developers be better aware of the internals of the GenAI ecosystem, the security measures involved, how to use them, and how to abuse them. That specifically includes what data is being sent to GenAI, and what permissions are given to the GenAI platform or the connected third-party plug-ins — for example, permission for Google Drive or GitHub.
Balmas points out that the Salt research team only checked a small percentage of this ecosystem, and says the findings indicate there is a bigger risk relevant to other GenAI platforms, and many existing and future GenAI plug-ins.
Balmas also says that OpenAI should put more emphasis on security in their documentation for developers, which will help reduce the risks.
GenAI Plug-in Security Risks Likely to Increase
Sarah Jones, cyber threat intelligence research analyst at Critical Start, agrees that the Salt Lab findings suggest a broader security risk associated with GenAI plug-ins.
“As GenAI becomes more integrated with workflows, vulnerabilities in plug-ins could provide attackers with access to sensitive data or functionalities within various platforms,” she says.
This emphasizes the need for robust security standards and regular audits for both GenAI platforms and their plug-in ecosystems, as hackers start to target flaws in these platforms.
Darren Guccione, CEO and co-founder at Keeper Security, says these vulnerabilities serve as a “stark reminder” about the inherent security risks involved with third-party applications and should prompt organizations to shore up their defenses.
“As organizations rush to leverage AI to gain a competitive edge and enhance operational efficiency, the pressure to quickly implement these solutions should not take precedence over security evaluations and employee training,” he says.
The proliferation of AI-enabled applications has also introduced challenges in امنیت زنجیره تامین نرم افزار, requiring organizations to adapt their security controls and data governance policies.
He points out employees are increasingly entering proprietary data into AI tools — including intellectual property, financial data, business strategies, and more — and unauthorized access by a malicious actor could be crippling for an organization.
“An account takeover attack jeopardizing an employee’s GitHub account, or other sensitive accounts, could have equally damaging impacts,” he cautions.
- محتوای مبتنی بر SEO و توزیع روابط عمومی. امروز تقویت شوید.
- PlatoData.Network Vertical Generative Ai. به خودت قدرت بده دسترسی به اینجا.
- PlatoAiStream. هوش وب 3 دانش تقویت شده دسترسی به اینجا.
- PlatoESG. کربن ، CleanTech، انرژی، محیط، خورشیدی، مدیریت پسماند دسترسی به اینجا.
- PlatoHealth. هوش بیوتکنولوژی و آزمایشات بالینی. دسترسی به اینجا.
- منبع: https://www.darkreading.com/vulnerabilities-threats/critical-chatgpt-plugin-vulnerabilities-expose-sensitive-data
- : دارد
- :است
- :نه
- $UP
- 7
- a
- درباره ما
- سو استفاده کردن
- دسترسی
- حساب
- حساب ها
- وفق دادن
- موثر بر
- موافق است
- AI
- AI chatbot
- اجازه دادن
- همچنین
- an
- روانکاو
- و
- هر
- برنامه های کاربردی
- تصویب
- برنامه های
- هستند
- AS
- مرتبط است
- At
- حمله
- ممیزی
- تصدیق
- اتوماتیک
- مطلع
- BE
- شود
- بوده
- بودن
- بهتر
- بزرگتر
- هر دو
- کسب و کار
- by
- قابلیت های
- هشدارها
- مدیر عامل شرکت
- معین
- زنجیر
- چالش ها
- chatbot
- GPT چت
- بررسی شده
- بنیانگذاران
- رمز
- شرکت
- رقابتی
- سازش
- متصل
- اتصال
- گروه شاهد
- میتوانست
- مجوزها و اعتبارات
- فلج کننده
- بحرانی
- سفارشی
- سایبر
- آسیب رساندن
- داده ها
- دفاع
- توسعه دهندگان
- پروژه
- مستندات
- توسط
- راندن
- در طی
- اکوسیستم
- اکوسیستم
- لبه
- بهره وری
- تاکید
- تأکید می کند
- کارمند
- کارکنان
- کار می کند
- را قادر می سازد
- بالا بردن
- وارد شدن
- به همان اندازه
- ارزیابی
- مدرک
- مثال
- اجرا کردن
- موجود
- سوء استفاده قرار گیرد
- بهره برداری از
- قرار گرفتن در معرض
- گسترش
- گسترش
- خارجی
- تسهیل کننده
- مالی
- اطلاعات مالی
- یافته ها
- نام خانوادگی
- ثابت
- معایب
- برای
- یافت
- چارچوب
- ویژگی های
- توابع
- بیشتر
- آینده
- افزایش
- جنایی
- مولد
- هوش مصنوعی مولد
- GitHub
- داده
- گوگل
- حکومت
- اعطای
- هکرها
- بود
- آیا
- he
- کمک
- چگونه
- چگونه
- HTTPS
- صدها نفر
- اثرات
- جعل هویت
- انجام
- in
- شامل
- از جمله
- افزایش
- به طور فزاینده
- نشان دادن
- ذاتی
- نصب و راه اندازی
- یکپارچه
- فکری
- مالکیت معنوی
- اطلاعات
- فعل و انفعالات
- به
- معرفی
- گرفتار
- مسائل
- جونز
- JPG
- آزمایشگاه
- آزمایشگاه
- رهبران
- برجسته
- قدرت نفوذ
- پسندیدن
- احتمالا
- ساخت
- مخرب
- بسیاری
- ممکن است..
- معیارهای
- مدل
- بیش
- باید
- نیاز
- جدید
- نه
- اشاره کرد
- of
- on
- فقط
- باز کن
- OpenAI
- قابل استفاده
- or
- کدام سازمان ها
- سازمان های
- دیگر
- خارج
- روی
- درصد
- اجازه
- مجوز
- سکو
- سیستم عامل
- افلاطون
- هوش داده افلاطون
- PlatoData
- نقطه
- نقطه
- سیاست
- محبوب
- ممکن
- پتانسیل
- رئيس جمهور
- فشار
- مناسب
- ویژگی
- اختصاصی
- ارائه
- منتشر شده
- قرار دادن
- به سرعت
- توصیه می کند
- كاهش دادن
- منظم
- مربوط
- یادآور
- گزارش
- تحقیق
- محققان
- این فایل نقد می نویسید:
- خطر
- خطرات
- تنومند
- هجوم بردن
- s
- نمک
- می گوید:
- تیم امنیت لاتاری
- اقدامات امنیتی
- خطرات امنیتی
- مشاهده گردید
- حساس
- فرستاده
- خدمت
- خدمات
- او
- باید
- پس از
- کوچک
- So
- مزایا
- بزودی
- به طور خاص
- استانداردهای
- کامل
- شروع
- راه افتادن
- استراتژی ها
- نشان می دهد
- عرضه
- زنجیره تامین
- مناسب
- گرفتن
- تصاحب
- وظایف
- تیم
- که
- La
- شان
- آنها
- آنجا.
- اینها
- آنها
- شخص ثالث
- این
- کسانی که
- هزاران نفر
- تهدید
- از طریق
- به
- ابزار
- آموزش
- فوت و فن
- غیر مجاز
- کشف
- فهمیدن
- بروزرسانی
- استفاده کنید
- کاربر
- کاربران
- با استفاده از
- مختلف
- وسیع
- نسخه
- معاون
- معاون رئیس جمهور
- آسیب پذیری ها
- بود
- we
- وب سایت
- بود
- چی
- چه زمانی
- که
- اراده
- با
- در داخل
- گردش کار
- خواهد بود
- زفیرنت