האם מכונות יכולות להיות מודעות לעצמן? מחקר חדש מסביר כיצד זה יכול לקרות

האם מכונות יכולות להיות מודעות לעצמן? מחקר חדש מסביר כיצד זה יכול לקרות

כדי לבנות מכונה, יש לדעת מה החלקים שלה וכיצד הם מתאימים זה לזה. כדי להבין את המכונה, צריך לדעת מה כל חלק עושה ואיך הוא תורם לתפקוד שלו. במילים אחרות, צריך להיות מסוגל להסביר את ה"מכניקה" של איך זה עובד.

פי גישה פילוסופית הנקרא מנגנון, בני אדם הם ללא ספק סוג של מכונה - והיכולת שלנו לחשוב, לדבר ולהבין את העולם היא תוצאה של תהליך מכני שאנחנו לא מבינים.

כדי להבין את עצמנו טוב יותר, אנחנו יכולים לנסות לבנות מכונות שמחקות את היכולות שלנו. בכך, תהיה לנו הבנה מכניסטית של המכונות הללו. וככל שהמכונה תפגין יותר מההתנהגות שלנו, כך אנו עשויים להיות קרובים יותר לקבל הסבר מכניסטי של המוח שלנו.

זה מה שהופך את AI למעניין מנקודת מבט פילוסופית. דגמים מתקדמים כגון GPT-4 ו-Midjourney יכולים כעת לחקות שיחה אנושית, לעבור בחינות מקצועיות וליצור תמונות יפות בכמה מילים בלבד.

עם זאת, למרות כל ההתקדמות, שאלות נותרו ללא מענה. כיצד נוכל לגרום למשהו להיות מודע לעצמנו, או מודע לכך שאחרים מודעים? מהי זהות? מהי משמעות?

למרות שיש הרבה תיאורים פילוסופיים מתחרים של הדברים האלה, כולם התנגדו להסבר מכניסטי.

ב רצף של ניירות התקבל עבור הכנס השנתי ה-16 לבינה כללית מלאכותית בשטוקהולם, אני מציג הסבר מכניסטי לתופעות הללו. הם מסבירים כיצד אנו עשויים לבנות מכונה שמודעת לעצמה, לאחרים, לעצמה כפי שהיא נתפסת על ידי אחרים, וכן הלאה.

אינטליגנציה וכוונה

הרבה ממה שאנו מכנים אינטליגנציה מסתכם בביצוע תחזיות על העולם עם מידע לא שלם. ככל שמכונה צריכה פחות מידע כדי לבצע תחזיות מדויקות, כך היא "אינטליגנטית" יותר.

לכל משימה נתונה, יש גבול לכמה אינטליגנציה מועילה בפועל. לדוגמה, רוב המבוגרים חכמים מספיק כדי ללמוד לנהוג במכונית, אבל יותר אינטליגנציה כנראה לא תהפוך אותם לנהגים טובים יותר.

המסמכים שלי מתארים הגבול העליון של האינטליגנציה עבור משימה נתונה, ומה נדרש כדי לבנות מכונה שתשיג אותה.

קראתי לרעיון התער של בנט, שבמונחים לא טכניים הוא ש"הסברים לא צריכים להיות יותר ספציפיים מהנדרש". זה נבדל מהפרשנות הפופולרית של התער של אוקהאם (ו תיאורים מתמטיים שלו), שהיא העדפה להסברים פשוטים יותר.

ההבדל הוא דק, אבל משמעותי. ב לְנַסוֹת בהשוואה לכמות הנתונים שמערכות בינה מלאכותיות צריכות כדי ללמוד מתמטיקה פשוטה, הבינה המלאכותית שהעדיפה הסברים פחות ספציפיים עשתה ביצועים טובים יותר מאשר הסברים פשוטים יותר ב-500 אחוזים.

חקר ההשלכות של גילוי זה הוביל אותי להסבר מכניסטי של משמעות - משהו שנקרא "פרגמטיקה גריצנית." זהו מושג בפילוסופיה של השפה שבוחן כיצד משמעות קשורה לכוונה.

כדי לשרוד, בעל חיים צריך לחזות כיצד הסביבה שלו, כולל חיות אחרות, תפעל ותגיב. לא תהססו להשאיר מכונית ללא השגחה ליד כלב, אבל אי אפשר לומר את אותו הדבר על ארוחת הצהריים שלכם בסטייק גב.

להיות אינטליגנטי בקהילה פירושו להיות מסוגל להסיק את כוונתם של אחרים, הנובעת מהרגשות וההעדפות שלהם. אם מכונה הייתה מגיעה לגבול העליון של אינטליגנציה עבור משימה שתלויה באינטראקציות עם אדם, אז היא גם הייתה צריכה להסיק כוונה נכונה.

ואם מכונה יכולה לייחס כוונה לאירועים ולחוויות הפוקדות אותה, הדבר מעלה את שאלת הזהות ומה המשמעות של להיות מודע לעצמו ולאחרים.

סיבתיות וזהות

אני רואה את ג'ון לובש מעיל גשם כשיורד גשם. אם אאלץ את ג'ון ללבוש מעיל גשם ביום שמש, האם זה יביא גשם?

ברור שלא! לאדם זה ברור. אבל קשה יותר ללמד את הדקויות של סיבה ותוצאה למכונה (קוראים המעוניינים יכולים לבדוק ספר הסיבה מאת יהודה פרל ודנה מקנזי).

כדי לחשוב על הדברים האלה, מכונה צריכה ללמוד ש"אני גרמתי לזה לקרות" שונה מ"ראיתי את זה קורה". בדרך כלל, היינו עושים זאת התוכנית ההבנה הזו לתוכו.

עם זאת, העבודה שלי מסבירה כיצד אנו יכולים לבנות מכונה שמבצעת את הגבול העליון של אינטליגנציה עבור משימה. מכונה כזו חייבת, בהגדרה, לזהות נכונה סיבה ותוצאה - ולכן גם להסיק קשרים סיבתיים. הניירות שלי לחקור בדיוק איך.

ההשלכות של זה הן עמוקות. אם מכונה לומדת "אני גרמתי לזה לקרות", אז היא חייבת לבנות מושגים של "אני" (זהות לעצמה) ו"זה".

היכולות להסיק כוונה, ללמוד סיבה ותוצאה ולבנות זהויות מופשטות כולן קשורות. מכונה המשיגה את הגבול העליון של אינטליגנציה עבור משימה חייבת להפגין את כל היכולות הללו.

המכונה הזו לא רק בונה לעצמה זהות, אלא לכל היבט של כל אובייקט שעוזר או מעכב את יכולתו להשלים את המשימה. אז זה יכול להשתמש בהעדפות משלו בתור קו בסיס לחזות מה אחרים עשויים לעשות. זה דומה לאיך בני אדם נוטים לייחס כוונה לבעלי חיים לא אנושיים.

אז מה זה אומר עבור AI?

כמובן, המוח האנושי הוא הרבה יותר מהתוכנית הפשוטה המשמשת לביצוע ניסויים במחקר שלי. העבודה שלי מספקת תיאור מתמטי של מסלול סיבתי אפשרי ליצירת מכונה שמודעת לעצמה ללא ספק. עם זאת, הפרטים של הנדסת דבר כזה רחוקים מלהיות פתורים.

לדוגמה, כוונה כמו אנושית תדרוש חוויות ורגשות כמו אנושיים, וזה דבר שקשה להנדס. יתר על כן, איננו יכולים בקלות לבדוק את העושר המלא של התודעה האנושית. התודעה הוא מושג רחב ודו-משמעי המקיף - אך יש להבדיל - מהטענות המצומצמות יותר לעיל.

סיפקתי הסבר מכניסטי של היבטים של התודעה - אבל זה לבדו אינו לוכד את מלוא עושרה של התודעה כפי שבני אדם חווים אותה. זוהי רק ההתחלה, ומחקר עתידי יצטרך להרחיב את הטיעונים הללו.שיחה

מאמר זה פורסם מחדש מתוך שיחה תחת רישיון Creative Commons. קרא את ה מאמר מקורי.

תמונת אשראי: Deepmind on Unsplash 

בול זמן:

עוד מ רכזת הסינגולריות