גוגל מונעת מ-AI Gemini Chatbot לדון בבחירות

גוגל מונעת מ-AI Gemini Chatbot לדון בבחירות

טיילר קרוס


טיילר קרוס

פורסם ב: במרץ 13, 2024

מודל הבינה המלאכותית Gemini שנוצרה על ידי גוגל נאסר להשמיע בחירות במהלך מחזור הבחירות של 2024. מספר חברות טכנולוגיה, כולל גוגל, עשו פריצות דרך מסיביות בטכנולוגיית AI במהלך השנה האחרונה. עם זאת, מודלים של בינה מלאכותית הפכו לחזקים מספיק כדי לגרום להונאת בחירות בקנה מידה גדול ולדלק קמפיינים של תעמולה פוליטית אם הם נופלים לידיים הלא נכונות.

עם הפיכת הבינה המלאכותית לזמינה יותר, הבוחרים בארה"ב נותרים עם דאגה מובנת שחברות כמו גוגל יכולות להשתמש במודלים של הבינה המלאכותית שלהן כדי לשנות את מהלך הבחירות על ידי הפצת מידע מוטעה. משתמשים רבים כבר מדווחים שלדוגמניות כמו Gemini ו-ChatGPT יש הטיות פוליטיות ברורות בכתיבה שלהם.

אלפבית (חברת האם של גוגל) מטפלת בחששות של אנשים על ידי חיזוק עקרונות החברה שלה. הם אסרו לחלוטין על דיבור בבחירות במהלך מחזור הבחירות של 2024.

אם אתה שואל שאלות הקשורות לבחירות תאומים על דונלד טראמפ, ג'ו ביידן או מועמדים אחרים, הצ'אטבוט פשוט עונה "אני עדיין לומד איך לענות על השאלה הזו. בינתיים, נסה את חיפוש Google."

הגבלות אלו הוכרזו לראשונה בדצמבר. גוגל הסבירו שהם רוצים להציב את ההגנות הללו מוקדם, כדי ששחקנים (או אפילו החברה עצמה) לא יקבלו הזדמנות להשתמש בה כדי להפיץ מידע מוטעה.

"בהכנה לבחירות הרבות שיתרחשו ברחבי העולם בשנת 2024 ומתוך שפע של זהירות בנושא כה חשוב, בקרוב נגביל את סוגי השאילתות הקשורות לבחירות שעבורן תאומים יחזירו תגובות", אומר דובר גוגל.

הידוק הדיבור בבחירות בתאומים עומד בניגוד מוחלט להחלטות האחרונות של OpenAI. החברה שמאחורי ChatGPT זכתה לעיתונות גרועה לאחר שחזרה על שני סעיפי אבטחה חשובים. התנאים וההגבלות של ChatGPT בהתחלה לא אפשרו שימוש בכל קמפיינים פוליטיים או בצבא.

עם הזמן, ChatGPT שינתה את תנאי השירות שלה כדי לאסור רק שימוש "מסוכן" ב-ChatGPT בקמפיינים פוליטיים ולתת לצבא להשתמש בו לכל דבר מלבד בניית נשק.

בול זמן:

עוד מ בלשי בטיחות