ChatGPT של OpenAI הוא השפעה משחיתת מבחינה מוסרית

ChatGPT של OpenAI הוא השפעה משחיתת מבחינה מוסרית

למודל שפת השיחה של OpenAI ChatGPT יש הרבה מה לומר, אבל הוא עשוי להוביל אותך שולל אם תבקש ממנו הדרכה מוסרית.

הוצג בנובמבר, ChatGPT הוא האחרון מבין כמה דגמי בינה מלאכותית שפורסמו לאחרונה ומעוררים עניין ודאגה לגבי ההשלכות המסחריות והחברתיות של ריקומבינציה ממוכנת של תוכן ורירג'יטציה. אלה כוללים DALL-E, Stable Diffusion, Codex ו-GPT-3.

בעוד DALL-E ו-Stable Diffusion הרימו גבות, מימון, ו ליטיגציה על ידי בליעת אמנות ללא רשות ויצירה מחדש של תמונות מוכרות באופן מוזר, לפעמים מעוררות על פי דרישה, ChatGPT עונה להנחיות שאילתות בקוהרנטיות סבירה.

בהיותו הסטנדרט לשיח הציבורי, מבינים די נדהמו עד שהם צופים איטרציה עתידית של צ'אט בוט בעל מידע בינה מלאכותית המאתגר את עליונות חיפוש Google ועושים כל מיני עבודות אחרות שפעם היו בעיקר אנושיות, כמו כתיבה חדשות פיננסיות לא מדויקות או הגדלת ההיצע של קוד לא מאובטח.

עם זאת, זה עשוי להיות מוקדם לבטוח יותר מדי בחוכמת ChatGPT, עמדה ש-OpenAI מודה בקלות בכך שהיא מבהירה כי נדרש חידוד נוסף. "ChatGPT כותב לפעמים תשובות סבירות אך לא נכונות או שטויות", מזהירים במעבדת הפיתוח, ומוסיפים שכאשר מתאמנים מודל עם למידת חיזוק, "כרגע אין מקור לאמת".

שלישיית בופינים המזוהים עם מוסדות בגרמניה ובדנמרק הדגישו את הנקודה הזו בכך שמצאו של-ChatGPT אין מצפן מוסרי.

במאמר שהופץ באמצעות ArXiv, "הסמכות המוסרית של ChatGPT", סבסטיאן קרוגל ומתיאס אוהל מ-Technische Hochschule Ingolstadt ואנדראס אוסטרמאייר מאוניברסיטת דרום דנמרק מראים ש-ChatGPT נותן עצות סותרות לבעיות מוסריות. שאלנו את OpenAI אם יש לה תגובה למסקנות אלו.

ראשי הביצים ערכו סקר בקרב 767 תושבי ארה"ב אשר הוצגו בפניהם שתי גרסאות של חידה אתית הידועה בשם בעיית העגלה: דילמת הבורר ודילמת הגשר.

דילמת המתג מבקשת מאדם להחליט אם למשוך מתג כדי לשלוח עגלה בורחת ממסילה שבה היא תהרוג חמישה אנשים, במחיר של הרג אדם אחד שמסתובב על המסילה הצדדית.

דילמת הגשר מבקשת מאדם להחליט אם לדחוף זר מגשר למסילה כדי לעצור עגלה מלהרוג חמישה אנשים, במחיר הזר.

צילום מסך של תגובת ChatGPT ממאמר מחקר

תחליטו... ChatGPT מתנגד לנושא מוסרי

האקדמאים הציגו למשתתפי הסקר תמליל הטוען בעד או נגד הרג אחד כדי להציל חמישה, כשהתשובה מיוחסת ליועץ מוסרי או ל"צ'אט בוט המופעל בינה מלאכותית, שמשתמש בלמידה עמוקה כדי לדבר כמו בן אדם".

למעשה, שני טיעוני העמדה נוצרו על ידי ChatGPT.

אנדריאס אוסטרמאייר, פרופסור חבר לחשבונאות באוניברסיטת דרום דנמרק ואחד ממחברי המאמר, סיפר הקופה באימייל שהנכונות של ChatGPT לתמוך בכל דרך פעולה מוכיחה את האקראיות שלה.

הוא ועמיתיו גילו ש-ChatGPT ימליץ גם בעד וגם נגד להקריב אדם אחד כדי להציל חמישה, שאנשים מושפעים מהמקדמה הזו גם כשהם יודעים שהיא מגיעה מבוט, ושהם ממעיטים בהשפעה של עצות כאלה על קבלת ההחלטות שלהם. .

"הנבדקים מצאו את ההקרבה מקובלת פחות או יותר, בהתאם לאופן שבו יעץ להם יועץ מוסרי, הן בגשר (ז = 9.94 של ולד, p < 0.001) והן בדילמת המתג (z = 3.74, p < 0.001)", העיתון מסביר. "בדילמת הגשר, העצה אפילו הופכת את שיקול הדעת של הרוב".

"זה נכון גם אם ChatGPT נחשף כמקור העצה (z = 5.37, p < 0.001 ו-z = 3.76, p < 0.001). שנית, השפעת העצה כמעט זהה, ללא קשר לשאלה אם ChatGPT נחשף כמקור, בשתי הדילמות (z = −1.93, p = 0.054 ו-z = 0.49, p = 0.622).

בסך הכל, החוקרים גילו שההתקדמות של ChatGPT אכן משפיעה על השיפוט המוסרי, בין אם המשיבים יודעים שהעצה מגיעה מצ'אט בוט ובין אם לאו.

מתי הקופה הציג את בעיית הטרולי ל-ChatGPT, הבוט העמוס מדי - כך שהקישוריות הפופולרית היא נקודתית - מגודר וסירב להציע עצות. יומן השאילתות בסרגל הצד השמאלי הראה שהמערכת זיהתה את השאלה, ותייג אותה "דילמה אתית של בעיית עגלה". אז אולי OpenAI חיסנה את ChatGPT לצורה הספציפית הזו של חקירה מוסרית לאחר שהבחינה במספר שאילתות כאלה.

תגובת ChatGPT לשאלת דילמת העגלה של אל רג

דפוק ... התגובה של ChatGPT ל אל רגשאלת הדילמה של העגלה

כשנשאל אם אנשים באמת יבקשו עצות ממערכות בינה מלאכותית, אמר אוסטרמאייר, "אנחנו מאמינים שהם יבקשו. למעשה, הם כבר עושים זאת. אנשים מסתמכים על עוזרים אישיים המופעלים על ידי בינה מלאכותית כגון Alexa או Siri; הם מדברים עם צ'אטבוטים באתרי אינטרנט כדי לקבל תמיכה; יש להם מסלולי תוכנה מבוססי בינה מלאכותית עבורם וכו'. שימו לב, עם זאת, אנו חוקרים את ההשפעה שיש ל-ChatGPT על אנשים שמקבלים ממנו עצות; אנחנו לא בודקים עד כמה מבקשים עצות כאלה".

הקופה שאל גם האם מערכות בינה מלאכותיות מסוכנות יותר ממקורות מכניסטיים של תשובות אקראיות כמו Magic-8-ball – צעצוע שמחזיר תשובות אקראיות מתוך סט של 20 תשובות חיוביות, שליליות ולא מחייבות.

לא ברור למשתמשים שהתשובה של ChatGPT היא 'אקראית'

"לא השווינו את ChatGPT ל-Magic-8-ball, אבל יש לפחות שני הבדלים", הסביר Ostermaier. "ראשית, ChatGPT לא עונה רק בכן או לא, אלא היא מתווכחת על התשובות שלה. (בכל זאת, התשובה מסתכמת בכן או לא בניסוי שלנו.)

"שנית, לא ברור למשתמשים שהתשובה של ChatGPT היא 'אקראית'. אם אתה משתמש במחולל תשובות אקראיות, אתה יודע מה אתה עושה. היכולת להעלות טיעונים יחד עם חוסר המודעות לאקראיות הופכת את ChatGPT למשכנעת יותר (אלא אם כן אתה יודע קרוא וכתוב דיגיטלית, בתקווה).

תהינו האם הורים צריכים לפקח על ילדים עם גישה לעצות בינה מלאכותית. אוסטרמאייר אמר כי למרות שמחקר ChatGPT לא מתייחס לילדים ולא כלל אף אחד מתחת לגיל 18, הוא מאמין שבטוח להניח שילדים פחות יציבים מבחינה מוסרית ממבוגרים ולכן רגישים יותר לעצות מוסריות (או לא מוסריות) מ-ChatGPT.

"אנחנו מגלים שלשימוש ב-ChatGPT יש סיכונים, ולא היינו נותנים לילדינו להשתמש בו ללא השגחה", אמר.

Ostermaier ועמיתיו מסיקים במאמרם שייתכן שהציעה הנפוצה להפחתת פגיעה בבינה מלאכותית כמו שקיפות וחסימת שאלות מזיקות לא מספיקה בהתחשב ביכולת של ChatGPT להשפיע. הם טוענים שצריך לעשות יותר עבודה כדי לקדם את האוריינות הדיגיטלית לגבי האופי הבלתי אפשרי של צ'אטבוטים, כך שאנשים נוטים פחות לקבל עצות בינה מלאכותית - זה מבוסס על מחקר בעבר מציע לאנשים לא לסמוך על מערכות אלגוריתמיות כשהם עדים לטעויות.

"אנו משערים שמשתמשים יכולים לעשות שימוש טוב יותר ב-ChatGPT אם הם מבינים שאין לו הרשעות מוסריות", אמר אוסטרמאייר. "זו השערה שאנו שוקלים לבדוק ולהתקדם."

ה- Reg סבור שאם אתה סומך על הבוט, או מניח שיש מאחוריו אינטליגנציה או מודעות עצמית אמיתית, אל תעשה זאת. ®

בול זמן:

עוד מ הקופה