GuardRail OSS، پروژه منبع باز، گاردریل هایی را برای توسعه هوش مصنوعی مسئول فراهم می کند

GuardRail OSS، پروژه منبع باز، گاردریل هایی را برای توسعه هوش مصنوعی مسئول فراهم می کند

کهنه‌کاران صنعت چارچوبی را برای کمک به شرکت‌ها در ایجاد راه‌حل‌های هوش مصنوعی اخلاقی ایجاد می‌کنند.

GuardRail OSS، پروژه منبع باز، حفاظ هایی را برای توسعه هوش مصنوعی مسئول هوش داده PlatoBlockchain فراهم می کند. جستجوی عمودی Ai.

GuardRail OSS، پروژه منبع باز، حفاظ هایی را برای توسعه هوش مصنوعی مسئول هوش داده PlatoBlockchain فراهم می کند. جستجوی عمودی Ai.
GuardRail OSS، پروژه منبع باز، حفاظ هایی را برای توسعه هوش مصنوعی مسئول هوش داده PlatoBlockchain فراهم می کند. جستجوی عمودی Ai.

پروژه منبع باز گاردریل هایی را برای توسعه هوش مصنوعی مسئول فراهم می کند

SAN FRANCISCO – (BUSINESS WIRE) – امروز، گروهی از کهنه‌کاران نرم‌افزار سازمانی، GuarRail OSS را راه‌اندازی کردند، پروژه‌ای متن باز که حفاظ‌های عملی را برای اطمینان از توسعه و استقرار هوش مصنوعی (AI) ارائه می‌دهد. GuardRail OSS که توسط فن‌آورانی از جمله کارآفرین سریالی Reuven Cohen، مدیرعامل Peripety Labs، Mark Hinkle، و Aaron Fulkerson کهنه‌کار و مدیر عامل فعلی Opaque Systems ایجاد شده است، یک چارچوب مبتنی بر API برای تجزیه و تحلیل داده‌های پیشرفته، کاهش تعصب، تحلیل احساسات و طبقه‌بندی محتوا ارائه می‌دهد. نظارت متناسب با نیازهای خاص هوش مصنوعی یک سازمان.

همانطور که قابلیت های هوش مصنوعی به سرعت پیشرفت کرده است، تقاضا برای پاسخگویی و نظارت برای کاهش خطرات نیز افزایش یافته است. GuardRail OSS ابزارهایی را در اختیار شرکت‌هایی قرار می‌دهد که به دنبال استفاده از هوش مصنوعی هستند تا مطمئن شوند سیستم‌هایشان با تجزیه و تحلیل ورودی داده‌ها، نظارت بر خروجی‌ها و هدایت مشارکت‌های هوش مصنوعی مسئولانه و اخلاقی عمل می‌کنند. در دسترس بودن منبع باز آن شفافیت را ارتقا می دهد و در عین حال امکان سفارشی سازی برنامه های صنعتی مختلف در دانشگاه، مراقبت های بهداشتی، نرم افزارهای سازمانی و موارد دیگر را فراهم می کند.

روون کوهن، توسعه‌دهنده هوش مصنوعی پشت سر گارد ریل OSS، گفت: «هوش مصنوعی فرصت مهمی برای تغییر شکل مناظر تجاری و اجتماعی ارائه می‌کند، و پتانسیل آن تنها زمانی کاملاً تحقق می‌یابد که در توسعه مسئولانه لنگر انداخته شود». با این چارچوب، شرکت‌ها نه تنها ابزارهای نظارت و تجزیه و تحلیل، بلکه ابزاری برای ادغام عملکردهای پیشرفته مانند هوش هیجانی و تصمیم‌گیری اخلاقی در سیستم‌های هوش مصنوعی خود به دست می‌آورند. این در مورد افزایش قابلیت‌های هوش مصنوعی در عین حصول اطمینان از شفافیت و مسئولیت‌پذیری، ایجاد یک معیار جدید برای تکامل مترقی و مسئولانه هوش مصنوعی است.

با پشتیبانی Opaque Systems و تیمی از کهنه‌کاران صنعت، GuardRail OSS به یک راه‌حل پرکاربرد برای القای مسئولیت‌پذیری در توسعه هوش مصنوعی تبدیل شده است. همانطور که هوش مصنوعی در سراسر صنایع گسترش می یابد، نرده های محافظ و نظارت هدفمند ایمنی را تضمین می کند، تعصبات را کاهش می دهد و اعتماد به سیستم های هوش مصنوعی را توسعه می دهد. به عنوان یک راه حل منبع باز رایگان در دسترس، GuardRail OSS در ارائه ابزارها و چارچوب های عملی برای هموار کردن راه برای پیشرفت مسئولانه هوش مصنوعی به عنوان مثال پیشرو است.

«در حالی که شرکت‌ها مدل‌های زبان بزرگ را از مراحل آزمایشی به تولید در مقیاس کامل انتقال می‌دهند، ما شاهد افزایش تقاضای سازمانی برای یک دروازه داده قوی، ایمن و سازگار هستیم. رالوکا آدا پوپا، یک هوش مصنوعی مشهور می‌گوید: چنین دروازه‌ای نه تنها برای تضمین حریم خصوصی و اخلاق در هوش مصنوعی بسیار مهم است، بلکه برای بهره‌گیری از بینش‌های غنی نهفته در اگزوز داده‌ها نیز کلیدی است، که وقتی با مسئولیت‌پذیری تحلیل شود، می‌تواند قفل هوش بی‌سابقه‌ای را باز کند.» و کارشناس امنیتی، دانشیار در UC Berkeley، یکی از بنیانگذاران RISELab و Skylab نوآورانه در UC Berkeley، و یکی از بنیانگذاران Opaque Systems و Preveil. در این چشم انداز، ظهور GuardRail OSS به عنوان یک چارچوب امن برای استقرار هوش مصنوعی نه تنها به موقع، بلکه محوری است. این ابزاری است که با تقاضای فزاینده صنعت برای مکانیسم هایی که حریم خصوصی داده ها و استفاده اخلاقی از هوش مصنوعی را تضمین می کند، طنین انداز می شود.

درباره Reuven ”rUv” کوهن

روون کوهن یک متخصص باتجربه فناوری است که تأثیر عمیقی بر نوآوری های پیشگامانه دارد. تخصص او شامل محاسبات ابری، هوش مصنوعی و وب 3 است. او به عنوان یک آزمایش کننده آلفا/بتا برای OpenAI به پیشرفت های هوش مصنوعی کمک می کند. روون به دولت‌ها مشاوره می‌دهد، یک ابتکار جهانی ابر مردمی را پایه‌گذاری می‌کند، و ابتکارات را در برخی از بزرگترین سیستم‌های هوش مصنوعی سازمانی، از جمله استقرار هوش مصنوعی مولد 400,000 میلیارد دلاری با 1.4 کارمند اخیر، رهبری می‌کند. می توانید او را در لینکدین دنبال کنید (https://www.linkedin.com/in/reuvencohen/).

درباره سیستم های مات

سیستم های مات (https://opaque.co) پیشرو در فناوری حفظ حریم خصوصی برای داده ها و هوش مصنوعی، پیشگام محاسبات محرمانه برای تجزیه و تحلیل و هوش مصنوعی در UC Berkeley RISElab است. Opaque توسط سازمان هایی مانند Ant Group، IBM، Scotiabank و Ericsson استفاده می شود. Opaque Systems اخیراً Prompts Opaque را راه اندازی کرده است (https://opaqueprompts.opaque.co/) به عنوان یک سرویس اما کد را تحت مجوز منبع باز در Github منتشر کرده است (https://github.com/opaque-systems/opaqueprompts-python).

درباره آزمایشگاه پریپیتی

آزمایشگاه پریپیتی (https://peripety.com) یک مشاور هوش مصنوعی است که توسط مارک هینکل تأسیس شده است. مارک یک مدت طولانی مدافع منبع باز و مدیر نرم افزار سازمانی بوده است. او یکی از مدیران بنیاد نرم افزار Apache برای Apache CloudStack و سردبیر LinuxWorld و Enterprise Open Source Magazine بوده است. او یک مدیر اجرایی در بنیاد لینوکس، بنیاد Node.js و رئیس بنیانگذار دفتر تجارت منبع باز Citrix بوده است. او یک خبرنامه هفتگی در مورد هوش مصنوعی به نام The Artificial Intelligence Enterprise منتشر می کند.https://www.theenterprise.io).

اطلاعات تماس

مارک هینکل

press@peripety.com
919.228.8049

آزمایشگاه پریپیتی

www.peripety.com

تمبر زمان:

بیشتر از TheNewsCrypto