דריו אמודיי, מנכ"ל חברת אנתרופיק המפתחת את הצ'טבוט Claude, ואחד המומחים הגדולים בעולם ל-AI, חשף תחזית מטרידה בנוגע להתפתחות הבינה המלאכותית.
בראיון מעמיק שנמשך למעלה מחמש שעות עם הפודקאסטר לקס פרידמן, אמודיי הזהיר כי סופר-אינטליגנציה מלאכותית, צפויה להופיע כבר בשנים 2026-2027, ואולי אף מוקדם יותר, על פי נתונים פנימיים של החברה.
אמודיי הצביע על שני איומים מרכזיים: האפשרות לשימוש בטכנולוגיה לפיתוח כלי נשק קטלניים, ואובדן שליטה על מערכות בינה מלאכותית חזקות מדי.
"הסכנה הגדולה ביותר היא לא בינה מלאכותית עצמאית, אלא בני אדם שיפגעו בבני אדם אחרים באמצעותה", הדגיש אמודיי.
אנתרופיק פיתחה מערכת דירוג ייחודית להערכת רמת הסיכון מבינה מלאכותית. בעוד שמודלים נוכחיים מדורגים ברמה 2, אמודיי צופה הגעה לרמה 3 כבר בשנה הבאה. "אם נגיע ל-ASL-3 בשנה הבאה, אנחנו לא מוכנים", הזהיר.
ממצא מרתק שעלה בראיון הוא שבינה מלאכותית מתפתחת באופן דומה למוח ביולוגי. החוקרים גילו כי כל בינה מלאכותית מפתחת תכונות אוניברסליות המזכירות דפוסים שנצפו במוחות קופים ואפילו ברשתות עצביות אנושיות.
תגלית מעניינת נוספת היא שכל מודל שפה גדול מפתח "נוירון דונלד טראמפ" - נוירון ייעודי המוקדש לאישיותו של נשיא ארה"ב לשעבר.
לראיון הצטרפה גם אמנדה אסקל, פילוסופית ומומחית לבינה מלאכותית באנתרופיק. אסקל, שעברה מעולם הפילוסופיה לעולם הטכנולוגיה, מתמחה בעיצוב האופי והאישיות של מודל השפה קלוד.
אסקל העלתה שאלות מרתקות על תודעה בבינה מלאכותית והדגישה את חשיבות האמפתיה בפיתוח AI. "אני לא רוצה להיות אדם שמתעלל בחפצים, גם אם אני יודעת שהם לא בעלי תודעה", אמרה. "ואם משהו מתנהג כאילו הוא סובל, אני רוצה להיות מסוגלת להגיב לזה".
בנוגע למערכות יחסים בין בני אדם לבינה מלאכותית, אסקל הדגישה את חשיבות השקיפות: "חשוב שמודלים של בינה מלאכותית יהיו כנים עם בני אדם לגבי מה שהם. אנשים צריכים לדעת עם מי הם מתקשרים".
אמודיי סיכם את הריאיון בקריאה דחופה לפעולה רגולטורית: "אם נגיע לסוף 2025 ללא רגולציה משמעותית של בינה מלאכותית, אני אהיה מודאג". עם זאת, הוא נשאר אופטימי לגבי הפוטנציאל החיובי של הטכנולוגיה, בתנאי שתפותח באופן אחראי ותשרת את כלל האנושות.