يقول الرئيس التنفيذي لشركة PlatoBlockchain Data Intelligence ، إن الأشخاص الذين يتحدثون بانتظام إلى روبوتات الدردشة التي تعمل بالذكاء الاصطناعي غالبًا ما يبدأون في الاعتقاد بأنهم واعون. البحث العمودي. عاي.

يقول الرئيس التنفيذي إن الأشخاص الذين يتحدثون بانتظام إلى روبوتات الدردشة التي تعمل بالذكاء الاصطناعي غالبًا ما يبدأون في الاعتقاد بأنهم واعون

باختصار بدأ العديد من الأشخاص في الاعتقاد بأنهم يتفاعلون مع شيء حساس عندما يتحدثون إلى روبوتات الدردشة التي تعمل بالذكاء الاصطناعي ، وفقًا لما ذكره الرئيس التنفيذي لـ Replika ، وهو تطبيق يتيح للمستخدمين تصميم رفاقهم الافتراضيين.

يمكن للأشخاص تخصيص مظهر روبوتات الدردشة الخاصة بهم والدفع مقابل ميزات إضافية مثل سمات شخصية معينة على Replika. قام الملايين بتنزيل التطبيق والعديد من الدردشة بانتظام إلى برامج الروبوت الخاصة بهم. حتى أن البعض يبدأ في التفكير في أن أصدقاءهم الرقميين هم كيانات حقيقية حساسة.

"نحن لا نتحدث عن الأشخاص المجانين أو الأشخاص الذين يهلوسون أو لديهم أوهام" ، هكذا قال مؤسس الشركة ومديرها التنفيذي ، يوجينيا كويدا ، قال رويترز. "إنهم يتحدثون إلى الذكاء الاصطناعي وهذه هي التجربة التي لديهم."

مهندس جوجل تصدرت عناوين الصحف الشهر الماضي عندما قال إنه يعتقد أن أحد النماذج اللغوية للشركة كان واعيًا. تعرض Blake Lemoine للسخرية إلى حد كبير ، لكن لا يبدو أنه كان وحيدًا في تجسيد الذكاء الاصطناعي.

ومع ذلك ، فإن هذه الأنظمة ليست حساسة ، وبدلاً من ذلك تخدع البشر ليعتقدوا أن لديهم بعض الذكاء. إنهم يقلدون اللغة ويقومون بتقييدها بشكل عشوائي إلى حد ما دون أن يكون لديهم أي فهم للغة أو العالم الذي يصفونه.

ومع ذلك ، قال كويدا إنه يمكن للبشر أن يتأثروا بالتكنولوجيا.

قال كويدا: "نحن بحاجة إلى فهم أن [هذا] موجود ، تمامًا كما يؤمن الناس بالأشباح". "يبني الناس العلاقات ويؤمنون بشيء ما."

يقول النشطاء إن على الاتحاد الأوروبي حظر أجهزة كشف الكذب التي تعمل بالذكاء الاصطناعي

لا يزال قانون الذكاء الاصطناعي للاتحاد الأوروبي ، وهو اقتراح لتنظيم التكنولوجيا ، قيد المناقشة ويدعو بعض الخبراء إلى حظر أجهزة كشف الكذب الآلية.

توفر الشركات الخاصة التكنولوجيا للمسؤولين الحكوميين لاستخدامها على الحدود. تكتشف خوارزميات الذكاء الاصطناعي وتحلل أشياء مثل حركة عين الشخص وتعبيرات الوجه ونبرة الصوت لمحاولة تمييز ما إذا كان شخص ما لا يقول الحقيقة. لكن النشطاء والخبراء القانونيين يعتقدون أنه يجب حظره في الاتحاد الأوروبي بموجب قانون الذكاء الاصطناعي المرتقب.

"عليك إثبات أنك لاجئ ، ويُفترض أنك كاذب ما لم يثبت خلاف ذلك ،" بيترا مولنار ، المديرة المشاركة لمختبر قانون اللاجئين غير الربحي ، قال سلكي. "هذا المنطق يدعم كل شيء. إنه يدعم أجهزة كشف الكذب بالذكاء الاصطناعي ، ويدعم المزيد من المراقبة والرد على الحدود ".

إن محاولة اكتشاف ما إذا كان شخص ما قد يكذب باستخدام الإشارات المرئية والجسدية ليس علمًا بالضبط. اختبارات كشف الكذب القياسية مهتزة ، وليس من الواضح أن استخدام المزيد من الأساليب الآلية يعني بالضرورة أنها أكثر دقة. إن استخدام مثل هذه التكنولوجيا المحفوفة بالمخاطر على الأشخاص المستضعفين مثل اللاجئين ليس بالأمر المثالي.

هل يمكن للذكاء الاصطناعي أن يخبرنا حقًا عن عمرك؟

مفاجأة ، مفاجأة - خوارزميات الذكاء الاصطناعي المصممة للتنبؤ بعمر شخص ما من خلال الصور ليست دقيقة دائمًا.

في محاولة للقضاء على المستخدمين الشباب الذين يكذبون بشأن أعمارهم على منصات التواصل الاجتماعي ، أعلنت شركة Meta أنها تعمل مع Yoti ، وهي شركة ناشئة في مجال رؤية الكمبيوتر ، للتحقق من أعمار الناس. أولئك الذين يغيرون تاريخ ميلادهم يدويًا للتسجيل في سن أكبر من 18 عامًا لديهم خيار تحميل فيديو سيلفي ، ويتم استخدام تقنية Yoti بعد ذلك للتنبؤ بما إذا كانوا يبدون ناضجين بدرجة كافية.

لكن خوارزمياتها ليست دقيقة دائمًا. مراسلون من سي إن إن الذين اختبار عرضًا توضيحيًا عبر الإنترنت لإصدار مختلف من البرنامج على وجوههم ، ووجدوا أن النتائج كانت ناجحة أو خاطئة. توقعت خوارزميات يوتي نطاقًا عمريًا مستهدفًا صحيحًا للبعض ، ولكن في حالة واحدة كانت متوقفة عن عدة سنوات - توقعت أن يبدو شخصًا ما بين 17 و 21 عامًا عندما كان في الواقع في منتصف الثلاثينيات من العمر.

يقال إن النظام الذي يحلل مقاطع الفيديو من مستخدمي Meta يكافح أكثر في تقدير أعمار المراهقين من 13 إلى 17 الذين لديهم درجات لون بشرة داكنة. من الصعب على البشر تخمين عمر شخص ما بمجرد النظر إليه ، وربما لا تكون الآلات أفضل حالًا. ®

الطابع الزمني:

اكثر من السجل