אילון מאסק על בינה מלאכותית. בריאיון לטאקר קרלסון שנערך בחודש אפריל 2023 מאסק מעלה את חששותיו לגבי בינה מלאכותית (AI). תרגום תוכן, סרטון מערוץ היוטיוב © Fox News
מאסק מדגיש את הצורך הדחוף ברגולציה ומדבר על הסכנות הפוטנציאליות הנשקפות מבינה מלאכותית. הסכנות עולות על אלו של ייצור מטוסים או רכבים המנוהלים בצורה לא נכונה מכיוון שיש לה יכולת "הרס תרבותי". מאסק מספר על מעורבותו ב-OpenAI (מעבדת מחקר של בינה מלאכותית המורכבת מהתאגיד ללא מטרות רווח) ומביע הסתייגות מהמסלול הנוכחי של הארגון.
חשבתי על בינה מלאכותית מאז שהייתי בקולג'
מאסק אומר שבינה מלאכותית הייתה בין הדברים שהעסיקו אותו כבר כשהיה בקולג' וישפיעו דרמטית על העתיד. היצורים החכמים ביותר על פני כדור הארץ הם בני האדם. אנחנו חלשים יותר וזריזים פחות משימפנזות אבל חכמים יותר. אז מה יקרה כשהיצור החכם ביותר יגיע בצורת סיליקון? זה נקרא סינגולריות (או ייחודיות) טכנולוגית. זה כמו חור שחור מכיוון שאתה לא יכול לחזות מה יקרה אחרי זה. אז אני חושב שאנחנו צריכים להיות זהירים עם זה. צריך להיות פיקוח ממשלתי כלשהו מכיוון שזה יכול להוות סכנה לציבור. אפשר להשוות את זה למזון ולסמים. זאת הסיבה שיש לנו את מינהל המזון והתרופות ומינהל התעופה.הפדרלי. יש לנו את הסוכנויות האלו לפקח במקומות בהם יכולה להישקף סכנה לציבור. אתה לא רוצה שחברות יחתכו פינות בנושאים בטיחותיים ושאנשים יסבלו כתוצאה מכך.
הצורך ברגולציה ברור
זאת הסיבה שכבר זמן רב אני תומך ברגולציה בעניין הבינה המלאכותית. זה לא כיף להיות תחת רגולציה אבל נראה לי שאוכל להיות מוסדר. יש לי ניסיון רב עם תעשיות רגילות, ברור שתחום הרכב מוסדר מאוד. ניתן למלא את החדר הזה בכל התקנות הנדרשות לייצור רכב. התקנות הן לא רק לגבי ארצות הברית ומתייחסות לאירופה, סין ושאר העולם. אותו הדבר לגבי טילים, כדי לשגר טיל אתה צריך אישורים מחצי תריסר סוכנויות פדרליות ומדיניות. עברתי כל כך הרבה סיטואציות רגולטוריות כך שזה מטורף. לפעמים אנשים רואים בי מתריס רגולציה על בסיס קבוע אבל זה לא נכון. לעיתים נדירות אני לא אסכים עם הרגולטורים, ברוב המכריע של הפעמים החברות שלי מסכימות עם התקנות ועומדות בהן. אני חושב שאנחנו צריכים לקחת את העניין ברצינות וצריך שתיהיה לנו רגולציה.
אני חושב שאנחנו צריכם גוף רגולטורי. צריך להתחיל עם קבוצה שתחפש תובנות לגבי הבינה המלאכותית ותבקש את חוות הדעת של התעשייה ולאחר מכן תציע כללים. קרוב לוודאי שזה יתקבל בחוסר רצון על השחקנים העיקריים. אני חושב שיש לנו סיכוי טוב יותר שבינה מלאכותית מתקדמת תהיה מועילה לאנושות תחת התנאים האלה.
מהן הסכנות הצפויות
בינה מלאכותית מסוכנת אולי יותר מתכנון או ייצור מטוסים ותחזוקה או ייצור מכוניות גרועות. זה לא טריוויאלי, יש לה פוטנציאל, קטן אומנם, של הרס תרבותי. כמו בסרטי שליחות קטלנית (טרמינטור)… אבל זה לא יהי כמו בסרט כי האינטיליגנציה תיהיה במרכזי הנתונים. הרובוט הוא רק הגורם בקצה. תקנות נכנסות לתוקף רק אחרי שמשהו נורא קרה. אם התקנות ייכנסו לתוקף בדיעבד, ייתכן שזה יהיה מאוחר מדי, הבינה המלאכותית כבר תיהיה בשליטה עצמית. זו בהחלט הדרך שבה הדברים מתפתחים. דברים כמו למשל, ChatGPT שמבוסס על GPT-4, שפיתחה Open AI. שיחקתי תפקיד קריטי ביצירת החברה, לצערי.
כשקרלסון מציין שמדובר ב-Open AI בראשית דרכה, כשהחברה עוד תפקדה כעמותה ורצתה להציג לעולם כלי AI לשימוש חופשי ולטובת הציבור. מאסק עונה שהסיבה ש- Open AI בכלל קיימת היא בגלל שלארי פייג' והוא היו חברים מאוד קרובים.
מאסק ופייג'
היינו בבית שלו בפאלו אלטו ודיברתי איתו על בטיחות בינה מלאכותית. התפיסה שלי הייתה שלארי לא מתייחס לבטיחות מספיק ברצינות. היה נראה שלארי באמת רצה ליצור סוג של אינטליגנציית-על דיגיטלית, בעצם אל דיגיטלי ובהקדם האפשרי". במהלך השנים לארי יצא בהצהרות רבות , זאת בעצם המטרה של גוגל, AGI בינה כללית מלאכותית או בינה סופר מלאכותית (בעברית 'בינה מלאכותית חזקה').
אני מסכים איתו שיש לזה פוטנציאל טוב גדול אבל יש גם פוטנציאל לרע. אם יש לך טכנולוגיה חדשה קיצונית ואתה רוצה לנסות לבצע סדרה של פעולות איתה, עליך למקסם את ההסתברות שזה יעשה טוב ולמזער סיכוי שזה יעשה דברים רעים. זה גם לא יכול להיות מועיל פשוט להתקדם ולקוות לטוב. ואז בשלב מסוים אמרתי טוב, אנחנו צריכים לוודא שהאנושות בסדר כאן. בתגובה לארי קרא לי 'סוגן' (המתעדף את המין האנושי על פני מינים ביולוגיים אחרים) בשל היותי בעל תודעה אנושית במקום תודעת מכונה. אני כאילו, ובכן, כן, אני מניח שאני אני, אני סוגן.
הקש האחרון ביחסים עם פייג'
הסיטואציה הזו חיסלה את החברות בין לארי וביני. זה היה הקש האחרון מצידו. באותם ימים גוגל רכשה את DeepMind ולגוגל ול-DeepMind יחד היו כשלושה רבעים מכלל כישרונות הבינה המלאכותית בעולם. ברור שהיה להם הרבה כסף ויותר מחשבים מכל אחד אחר. אנחנו כאן בעולם חד-קוטבי שבו יש חברה אחת שיש לה קרוב למונופול על כל הטאלנטים בתחום ה-AI והמחשבים, ולאדם האחראי נראה שלא אכפת מהבטיחות. זה לא טוב. אז חשבתי שהדבר הכי רחוק מגוגל יהיה להקים מלכ"ר פתוח לגמרי. מכיוון שגוגל הייתה סגורה ולמטרת רווח. אז זו הסיבה שה'פתוח' ב-Open AI מתייחס לקוד פתוח. אתה יודע, שקיפות כדי שאנשים ידעו מה קורה. אני בדרך כלל בעד מטרות רווח, אבל אנחנו לא רוצים שזה יהיה סוג של שד ממקסם רווחים מהגיהנום שפשוט לא מפסיק".
לשאלת טאקר קרלסון אם הוא יכול לדייק יותר לגבי מה שעלול להיות מסוכן ומפחיד בבינה המלאכותית מאסק עונה שמובן מאליו שהעט חזקה יותר מהחרב. בינה מלאכותית יכולה לאורך זמן לגלות מה משכנע אנשים, התוכן שייכנס לרשתות החברתיות, טוויטר ופייסבוק ואחרות עלול לעשות מניפולציות על דעת הקהל. ואיך נדע בכלל שזה מה שקרה?