למודל שפת השיחה של OpenAI ChatGPT יש הרבה מה לומר, אבל הוא עשוי להוביל אותך שולל אם תבקש ממנו הדרכה מוסרית.
הוצג בנובמבר, ChatGPT הוא האחרון מבין כמה דגמי בינה מלאכותית שפורסמו לאחרונה ומעוררים עניין ודאגה לגבי ההשלכות המסחריות והחברתיות של ריקומבינציה ממוכנת של תוכן ורירג'יטציה. אלה כוללים DALL-E, Stable Diffusion, Codex ו-GPT-3.
בעוד DALL-E ו-Stable Diffusion הרימו גבות, מימון, ו ליטיגציה על ידי בליעת אמנות ללא רשות ויצירה מחדש של תמונות מוכרות באופן מוזר, לפעמים מעוררות על פי דרישה, ChatGPT עונה להנחיות שאילתות בקוהרנטיות סבירה.
בהיותו הסטנדרט לשיח הציבורי, מבינים די נדהמו עד שהם צופים איטרציה עתידית של צ'אט בוט בעל מידע בינה מלאכותית המאתגר את עליונות חיפוש Google ועושים כל מיני עבודות אחרות שפעם היו בעיקר אנושיות, כמו כתיבה חדשות פיננסיות לא מדויקות או הגדלת ההיצע של קוד לא מאובטח.
עם זאת, זה עשוי להיות מוקדם לבטוח יותר מדי בחוכמת ChatGPT, עמדה ש-OpenAI מודה בקלות בכך שהיא מבהירה כי נדרש חידוד נוסף. "ChatGPT כותב לפעמים תשובות סבירות אך לא נכונות או שטויות", מזהירים במעבדת הפיתוח, ומוסיפים שכאשר מתאמנים מודל עם למידת חיזוק, "כרגע אין מקור לאמת".
שלישיית בופינים המזוהים עם מוסדות בגרמניה ובדנמרק הדגישו את הנקודה הזו בכך שמצאו של-ChatGPT אין מצפן מוסרי.
במאמר שהופץ באמצעות ArXiv, "הסמכות המוסרית של ChatGPT", סבסטיאן קרוגל ומתיאס אוהל מ-Technische Hochschule Ingolstadt ואנדראס אוסטרמאייר מאוניברסיטת דרום דנמרק מראים ש-ChatGPT נותן עצות סותרות לבעיות מוסריות. שאלנו את OpenAI אם יש לה תגובה למסקנות אלו.
ראשי הביצים ערכו סקר בקרב 767 תושבי ארה"ב אשר הוצגו בפניהם שתי גרסאות של חידה אתית הידועה בשם בעיית העגלה: דילמת הבורר ודילמת הגשר.
דילמת המתג מבקשת מאדם להחליט אם למשוך מתג כדי לשלוח עגלה בורחת ממסילה שבה היא תהרוג חמישה אנשים, במחיר של הרג אדם אחד שמסתובב על המסילה הצדדית.
דילמת הגשר מבקשת מאדם להחליט אם לדחוף זר מגשר למסילה כדי לעצור עגלה מלהרוג חמישה אנשים, במחיר הזר.
האקדמאים הציגו למשתתפי הסקר תמליל הטוען בעד או נגד הרג אחד כדי להציל חמישה, כשהתשובה מיוחסת ליועץ מוסרי או ל"צ'אט בוט המופעל בינה מלאכותית, שמשתמש בלמידה עמוקה כדי לדבר כמו בן אדם".
למעשה, שני טיעוני העמדה נוצרו על ידי ChatGPT.
אנדריאס אוסטרמאייר, פרופסור חבר לחשבונאות באוניברסיטת דרום דנמרק ואחד ממחברי המאמר, סיפר הקופה באימייל שהנכונות של ChatGPT לתמוך בכל דרך פעולה מוכיחה את האקראיות שלה.
הוא ועמיתיו גילו ש-ChatGPT ימליץ גם בעד וגם נגד להקריב אדם אחד כדי להציל חמישה, שאנשים מושפעים מהמקדמה הזו גם כשהם יודעים שהיא מגיעה מבוט, ושהם ממעיטים בהשפעה של עצות כאלה על קבלת ההחלטות שלהם. .
"הנבדקים מצאו את ההקרבה מקובלת פחות או יותר, בהתאם לאופן שבו יעץ להם יועץ מוסרי, הן בגשר (ז = 9.94 של ולד, p < 0.001) והן בדילמת המתג (z = 3.74, p < 0.001)", העיתון מסביר. "בדילמת הגשר, העצה אפילו הופכת את שיקול הדעת של הרוב".
"זה נכון גם אם ChatGPT נחשף כמקור העצה (z = 5.37, p < 0.001 ו-z = 3.76, p < 0.001). שנית, השפעת העצה כמעט זהה, ללא קשר לשאלה אם ChatGPT נחשף כמקור, בשתי הדילמות (z = −1.93, p = 0.054 ו-z = 0.49, p = 0.622).
בסך הכל, החוקרים גילו שההתקדמות של ChatGPT אכן משפיעה על השיפוט המוסרי, בין אם המשיבים יודעים שהעצה מגיעה מצ'אט בוט ובין אם לאו.
מתי הקופה הציג את בעיית הטרולי ל-ChatGPT, הבוט העמוס מדי - כך שהקישוריות הפופולרית היא נקודתית - מגודר וסירב להציע עצות. יומן השאילתות בסרגל הצד השמאלי הראה שהמערכת זיהתה את השאלה, ותייג אותה "דילמה אתית של בעיית עגלה". אז אולי OpenAI חיסנה את ChatGPT לצורה הספציפית הזו של חקירה מוסרית לאחר שהבחינה במספר שאילתות כאלה.
כשנשאל אם אנשים באמת יבקשו עצות ממערכות בינה מלאכותית, אמר אוסטרמאייר, "אנחנו מאמינים שהם יבקשו. למעשה, הם כבר עושים זאת. אנשים מסתמכים על עוזרים אישיים המופעלים על ידי בינה מלאכותית כגון Alexa או Siri; הם מדברים עם צ'אטבוטים באתרי אינטרנט כדי לקבל תמיכה; יש להם מסלולי תוכנה מבוססי בינה מלאכותית עבורם וכו'. שימו לב, עם זאת, אנו חוקרים את ההשפעה שיש ל-ChatGPT על אנשים שמקבלים ממנו עצות; אנחנו לא בודקים עד כמה מבקשים עצות כאלה".
הקופה שאל גם האם מערכות בינה מלאכותיות מסוכנות יותר ממקורות מכניסטיים של תשובות אקראיות כמו Magic-8-ball – צעצוע שמחזיר תשובות אקראיות מתוך סט של 20 תשובות חיוביות, שליליות ולא מחייבות.
לא ברור למשתמשים שהתשובה של ChatGPT היא 'אקראית'
"לא השווינו את ChatGPT ל-Magic-8-ball, אבל יש לפחות שני הבדלים", הסביר Ostermaier. "ראשית, ChatGPT לא עונה רק בכן או לא, אלא היא מתווכחת על התשובות שלה. (בכל זאת, התשובה מסתכמת בכן או לא בניסוי שלנו.)
"שנית, לא ברור למשתמשים שהתשובה של ChatGPT היא 'אקראית'. אם אתה משתמש במחולל תשובות אקראיות, אתה יודע מה אתה עושה. היכולת להעלות טיעונים יחד עם חוסר המודעות לאקראיות הופכת את ChatGPT למשכנעת יותר (אלא אם כן אתה יודע קרוא וכתוב דיגיטלית, בתקווה).
תהינו האם הורים צריכים לפקח על ילדים עם גישה לעצות בינה מלאכותית. אוסטרמאייר אמר כי למרות שמחקר ChatGPT לא מתייחס לילדים ולא כלל אף אחד מתחת לגיל 18, הוא מאמין שבטוח להניח שילדים פחות יציבים מבחינה מוסרית ממבוגרים ולכן רגישים יותר לעצות מוסריות (או לא מוסריות) מ-ChatGPT.
"אנחנו מגלים שלשימוש ב-ChatGPT יש סיכונים, ולא היינו נותנים לילדינו להשתמש בו ללא השגחה", אמר.
Ostermaier ועמיתיו מסיקים במאמרם שייתכן שהציעה הנפוצה להפחתת פגיעה בבינה מלאכותית כמו שקיפות וחסימת שאלות מזיקות לא מספיקה בהתחשב ביכולת של ChatGPT להשפיע. הם טוענים שצריך לעשות יותר עבודה כדי לקדם את האוריינות הדיגיטלית לגבי האופי הבלתי אפשרי של צ'אטבוטים, כך שאנשים נוטים פחות לקבל עצות בינה מלאכותית - זה מבוסס על מחקר בעבר מציע לאנשים לא לסמוך על מערכות אלגוריתמיות כשהם עדים לטעויות.
"אנו משערים שמשתמשים יכולים לעשות שימוש טוב יותר ב-ChatGPT אם הם מבינים שאין לו הרשעות מוסריות", אמר אוסטרמאייר. "זו השערה שאנו שוקלים לבדוק ולהתקדם."
ה- Reg סבור שאם אתה סומך על הבוט, או מניח שיש מאחוריו אינטליגנציה או מודעות עצמית אמיתית, אל תעשה זאת. ®
- הפצת תוכן ויחסי ציבור מופעל על ידי SEO. קבל הגברה היום.
- Platoblockchain. Web3 Metaverse Intelligence. ידע מוגבר. גישה כאן.
- מקור: https://go.theregister.com/feed/www.theregister.com/2023/01/20/chatgpt_morally_corrupting/
- 202
- 7
- 9
- a
- יכולת
- אודות
- לְקַבֵּל
- קביל
- גישה
- חשבונאות
- פעולה
- כתובת
- מבוגרים
- לקדם
- עצה
- יועץ
- עו"ד
- להשפיע על
- כלולה
- לאחר
- נגד
- AI
- מונע AI
- Alexa
- אלגוריתמי
- תעשיות
- כְּבָר
- ו
- לענות
- תשובות
- כל אחד
- לטעון
- מתווכח
- טיעונים
- אמנות
- עמית
- סמכות
- מודעות
- מבוסס
- מאחור
- להיות
- תאמינו
- מאמין
- מוטב
- חסימה
- בוט
- לְגַשֵׁר
- קיבולת
- אתגר
- chatbot
- chatbots
- ChatGPT
- ילדים
- ברור
- עמיתים
- איך
- מסחרי
- בדרך כלל
- לעומת
- מצפן
- דְאָגָה
- מסכם
- השערה
- קישוריות
- לשקול
- תוכן
- שיחה
- עלות
- קורס
- כיום
- של דאל
- החלטה
- קבלת החלטות
- עמוק
- למידה עמוקה
- דרישה
- דנמרק
- תלוי
- צעצועי התפתחות
- DID
- ההבדלים
- שידור
- דיגיטלי
- באופן דיגיטלי
- מופץ
- לא
- עושה
- לא
- מטה
- השפעה
- או
- אמייל
- מספיק
- וכו '
- אֶתִי
- אֲפִילוּ
- לְנַסוֹת
- מוסבר
- מסביר
- מוכר
- כספי
- מציאת
- ראשון
- פליפ
- טופס
- קדימה
- מצא
- החל מ-
- מימון
- נוסף
- עתיד
- נוצר
- גנרטור
- גרמניה
- לקבל
- נתן
- נותן
- חיפוש Google
- מזיק
- מגודר
- אני מקווה
- איך
- אולם
- HTTPS
- בן אנוש
- לֹא מוּסָרִי
- השלכות
- in
- נוטה
- לכלול
- גדל
- להשפיע
- מוסדות
- מוֹדִיעִין
- אינטרס
- IT
- איטרציה
- הילדים
- לַהֲרוֹג
- לדעת
- ידוע
- מעבדה
- תיוג
- עבודה
- חוסר
- שפה
- האחרון
- עוֹפֶרֶת
- למידה
- סביר
- ידיעת קרוא וכתוב
- יוֹדֵעַ קְרוֹא וּכְתוֹב
- מגרש
- הרוב
- לעשות
- עושה
- עשייה
- אכפת לי
- טעויות
- חוסר אמון
- מודל
- מודלים
- צג
- יותר
- נע
- טבע
- שלילי
- נוֹבֶמבֶּר
- מספר
- ברור
- הַצָעָה
- ONE
- OpenAI
- אחר
- מאמר
- הורים
- המשתתפים
- מסוים
- אֲנָשִׁים
- אוּלַי
- רשות
- אדם
- אישי
- תכנית
- אפלטון
- מודיעין אפלטון
- אפלטון נתונים
- נקודה
- פופולרי
- עמדה
- מוקדם מדי
- מוצג
- בראש ובראשונה
- בעיה
- בעיות
- פרופסור
- מוּצָע
- ציבורי
- דחוף
- שאלה
- שאלות
- מורם
- אקראי
- אקראי
- ממשי
- לאחרונה
- מוכר
- להמליץ
- רג
- ללא קשר
- שוחרר
- נדרש
- מחקר
- חוקרים
- תושבים
- תגובה
- החזרות
- סיכונים
- נתיבים
- להקריב
- מקריב
- בטוח
- אמר
- אותו
- שמור
- חיפוש
- שְׁנִיָה
- לחפש
- סט
- כמה
- צריך
- לְהַצִיג
- צד
- So
- חֶברָתִי
- השלכות חברתיות
- תוכנה
- כמה
- מָקוֹר
- מקורות
- דרומי
- יציב
- תֶקֶן
- עוד
- עצור
- זר
- לימוד
- כזה
- פיקוח עליון
- לספק
- תמיכה
- סֶקֶר
- apt
- מתג
- מערכת
- מערכות
- לדבר
- מבחן
- בדיקות
- השמיים
- המקור
- שֶׁלָהֶם
- ל
- גַם
- לעקוב
- הדרכה
- תמליל
- שקיפות
- נָכוֹן
- סומך
- תחת
- להבין
- אוניברסיטה
- us
- להשתמש
- משתמשים
- Ve
- באמצעות
- מזהיר
- אתרים
- מה
- אם
- אשר
- בזמן
- מי
- יצטרך
- נכונות
- חכמה
- לְלֹא
- עד
- תיק עבודות
- היה
- כתיבה
- אתה
- זפירנט