צ'אט GPT

באתר זה מה זה (זהמהזה) zemaze.co.il, מיזם שיתופי חברתי להעלאת סרטונים מכל העולם עם כתוביות בעברית תמצאו סרטונים תחת הערך צ'אט GPT.

סוכני AI: הדור הבא של הבינה המלאכותית

סוכני AI: הדור הבא של הבינה המלאכותית

סוכני AI: הדור הבא של הבינה המלאכותית. סרטון מערוץ היוטיוב © IBM Technology. הערוץ מספק תוכן חינוכי בנושאים הגדולים ביותר בטכנולוגיה. כאן תמצאו מידע בכל הקשור ל- AI, אוטומציה, אבטחת סייבר, מדעי נתונים, DevOps ומחשב קוונטי. המומחים של IBM יעזרו לכם לללמוד על מגמות חדשות, לקבל תובנות ולרכוש מיומנויות. הערוץ פועל בהתאם להנחיות המחשוב החברתי של IBM.

הסרטון הפעם על ההבדל בין בינה מלאכותית יוצרת לסוכן בינה מלאכותית. מרטין קין מסביר כיצד בינה מלאכותית גנרטיבית מניעה יצירת תוכן ויצירת תמונות, בעוד שסוכן בינה מלאכותית משתמש ב-'תואר שני במשפטים' ובחשיבה של 'שרשרת מחשבה' למשימות פרואקטיביות כמו קניות אישיות ותכנון כנסים. גלו את עתיד שיתוף הפעולה החכם בתחום הבינה המלאכותית!

מהי המשמעות הפרקטית של קפיצת המדרגה מ-ChatGPT (AI יוצר) לסוכני AI (AI אוטונומי)? סוכני AI הם הדבר הבא אחרי ה-ChatGPT. כך מערכות אוטונומיות ישנו את העבודה והחיים של כולנו.

עברנו מ-"תגובה" ל-"יוזמה"

כולנו מכירים את ChatGPT ואת הבינה המלאכותית היוצרת (Generative AI) – המערכות שמייצרות טקסט או תמונה על סמך הנחיה בודדת שאתם מספקים. אבל בזמן שאנו מתרגלים ליכולות האלו, העולם הטכנולוגי כבר מתקדם לדבר הגדול הבא –  AI Agents, סוכני AI. מדובר בשינוי פרדיגמה יסודי ממערכת שמגיבה למה שאתם אומרים לה, למערכת שיוזמת ומובילה תהליכים שלמים להשגת המטרה הסופית. מה ההבדל המהותי, ואיך המעבר הזה ישנה את האופן שבו אנו עובדים ומשקיעים?

תרגום הסרטון

ההבדל בין בינה מלאכותית יוצרת (Generative AI) לסוכן בינה מלאכותית (Agentic AI)

אלה שתי גישות נפרדות לבינה מלאכותית. כולנו מכירים את הבינה המלאכותית היוצרת (Generative AI) דברים כמו צ'אטבוטים, מחוללי תמונות וכדומה.

בינה מלאכותית יוצרת – המערכת המגיבה

מערכות GenAI הן באופן יסודי מערכות מגיבות (Reactive). הן מחכות שתעשו משהו, במיוחד שתספקו הנחיה (Prompt) וברגע שאתם מנחים אותן, תפקידן ליצור תוכן כלשהו בהתבסס על מה שסיפקתם.. הן משתמשות בדפוסים שלמדו במהלך האימון שלהן. התוכן שהן יוצרות יכול להיות טקסט, תמונה, קטע קוד או קובץ אודיו. אלה כל הדברים שאנחנו יכולים ליצור באמצעותן.

מכונות מתוחכמות להתאמת דפוסים

הן למדו מתוך מערכי נתונים עצומים את הקשרים הסטטיסטיים בין מילים, פיקסלים וגלי קול. כאשר אתם מספקים הנחיה, הבינה היוצרת, בהתבסס על האימון שלה, מנבאת מה אמור לבוא הלאה. אבל עבודתה מסתיימת ביצירה, היא אינה נוקטת בצעדים נוספים ללא קלט מכם.

סוכן בינה מלאכותית  (Agentic AI)

סוכני בינה מלאכותית לעומת זאת הן מערכות יוזמות (Proactive) שאינן מגיבות. בדומה לבינה היוצרת הן מתחילות לעתים קרובות עם הנחיית משתמש, זאת משמשת אותן לרדוף אחר מטרות באמצעות סדרת פעולות.

מערכת סוכנת למעשה עוברת מחזור חיים קטן:

קליטה וזיהוי – קולטת את הסביבה שלה

קבלת החלטה – מחליטה על הפעולה שיש לנקוט.

ביצוע – מבצעת את הפעולה הזו.

למידה – לומדת מהתוצאה.

חזרה למחזור – התהליך ממשיך במעגל, כל זאת עם התערבות אנושית מינימלית.

(LLMs) Large language models

שתי גישות הבינה המלאכותית הללו חולקות לרוב בסיס משותף: מודלי שפה גדולים. מודלי LLMs משמשים כעמוד השדרה של צ'אטבוטים. הם גם מספקים את מנוע ההיגיון שמניע מערכות סוכנות. לסוגים אחרים של יצירה כמו תמונות ואודיו משתמשים לרוב במודלי דיפוזיה.

GenAI – יישומים בעולם האמיתי: יצירה מול ניהול

GenAI קורא המחשבות היצירתי

יוצר תוכן ביוטיוב עשוי להשתמש במערכת GenAI כדי לסקור תסריטים, להציע רעיונות לתמונות ממוזערות ואפילו ליצור מוזיקת רקע. אבל בכל שלב יש אדם, יוצר אנושי, שמסתכל על התוכן שנוצר. הוא סוקר, בודק שזה מה שהוא רוצה, וככל הנראה מזקק את התוצאות.

הבינה המלאכותית יוצרת אפשרויות אבל האדם הוא האוצר והמנהל

 Agentic AI – הסייען האוטונומי

סוכן בינה מלאכותית משגשג בתרחישים המורכבים מתהליכים מרובי שלבים הדורשים ניהול שוטף

חשבו על סוכן קניות אישי:

בהינתן מוצר לרכישה כקלט, הוא מחפש באופן פעיל זמינות בפלטפורמות שונות.

מנטר תנודות מחירים.

הוא עשוי לנהל את תהליך התשלום ואפילו לתאם את המשלוח.

עושה זאת  במידה רבה בעצמו ומחפש קלט מכם רק כשהוא נחוץ.

מנגנון הפעולה: היגיון "שרשרת מחשבה"

איך סוכן AI מבצע את זה? מודלי ה- LLMs שנמצאים מאחורי GenAI יכולים גם לספק יכולות היגיון לסוכנים. כאן אנחנו משתמשים ביכולת של  GenAI "לחשוב". כלומר, לחשוב על בעיות, לזה קוראים – "Chain-of-thought reasoning", "היגיון שרשרת מחשבה". זהו תהליך שבו הסוכן מפרק משימה מורכבת לשלבים לוגיים קטנים יותר, בדומה לאופן שבו בני אדם מתמודדים עם בעיות קשות.

סוכן שמתכנן כנס מורכב ישתמש ב- GenAI כדי ליצור דיאלוג פנימי שיכול להיראות כך:

"ראשית, עלי להבין את דרישות הכנס – גודל, משך, תקציב".

"לאחר מכן, עלי לחקור מקומות זמינים התואמים את הפרמטרים הללו".

"עלי לבדוק את זמינות המקומות העונים על הדרישות".

הסוכן למעשה "מדבר עם עצמו" כדי לחקור את מרחב הבעיה לפני שהוא נוקט בפעולה. GenAI הוא המנוע הקוגניטיבי שמניע את קבלת ההחלטות של הסוכן.

שיתוף פעולה חכם

במבט קדימה, מערכות הבינה המלאכותית החזקות ביותר ככל הנראה לא יהיו יוצרות גרידא או סוכנות גרידא. הן יהיו משתפות פעולה אינטליגנטיות. המערכות יבינו מתי לחקור באמצעות יצירה (Generation) ומתי להתחייב לפעולה באמצעות פעילות סוכן (Agentic Action).

 

מניית אנבידיה Nvidia צונחת

מניית אנבידיה NVIDIA

מניית אנבידיה Nvidia צונחת בעקבות ההשקה של מודל הבינה המלאכותית הסיני המדהים  Deep Seek V3.

תרגום תוכן, סרטון מערוץ היוטיוב © NXplace TechMinute. בערוץ תמצאו את כל העדכונים והתובנות האחרונות בעולם הטכנולוגיה. חדשות טכנולוגיות מתקדמות, סקירות מוצרים ומגמות בתעשייה.הסרטונים קלים להבנה. עם ההערוץ תשארו תמיד מעודכנים בכל מה שקשור לבינה מלאכותית, סמארטפונים, חידושים פורצי דרך ומשחקים.

 

קרדיט תמונה © Ron Lach

המודל הסיני משבש את תחום הבינה המלאכותית הפתוח

המודל הסיני משבש את תחום הבינה המלאכותית הפתוח. ארה"ב יישמה מדיניות להגבלת הגישה הסינית לשבבי הבינה המלאכותית המתקדמים ביותר של Nvidia. המטרה הייתה לשמור על יתרון טכנולוגי. אולם מבלי משים המגבלות האלה דירבנו מפתחים סיניים לחיפוש מעמיק לחדשנות.

חברת בינה מלאכותית סינית הצליחה ליצור את מודל R1 שהציג ביצועים מרשימים למרות השימוש בפחות משאבים וחזקים פחות. זאת דוגמה מצוינת לאופן שבו מחסור יכול להניע יצירתיות ולהוביל לפריצת דרך.

המחסור מוליד חדשנות

משאבים מוגבלים מאלצים צוותים לחשוב מחוץ לקופסה. כדי להשיג את מטרותיהם הם מוצאים דרכים יעילות יותר, תוך גילוי יכולת הסתגלות ותושייה. במטרה לפצות על היעדר חומרה מתקדמת, המפתחים הסיניים הוכיחו יכולת הסתגלות יוצאת דופן על ידי אופטימיזציה של האלגוריתמים שלהם ומציאת פתרונות חלופיים.

Deep Seek R1

Deep Seek R1 הוא מודל מורכב לפתרון בעיות שעלה במהירות לראש התרשימים של הביצועים הגלובליים.

למרות שנבנו עם פחות שבבי AI ושבבים חזקים פחות, ה-R1 התעלה על דגמים רבים שפותחו על ידי חברות בארה"ב שלהן הייתה גישה מלאה לטכנולוגיה העדכנית ביותר. ההישג הזה הוא עדות לכושר ההמצאה והנחישות של צוות Deep Seek. לפי הוול סטריט ג'ורנל ה- Deep Seek R1 התקרב ל-10 המובילים בעולם בביצועים ופותח במהירות במחיר נמוך בהרבה.

כולנו מרוויחים

ההצלחה של Deep Seek R1 אינה רק ניצחון עבור החברה אלא ברכה לעסקים ברחבי העולם. ארגונים מודעים יותר ויותר לעלויות ולא סביר שישלמו פרמיה עבור מודל בינה מלאכותית אם תיהיה אלטרנטיבה זולה יותר ואפקטיבית באותה מידה.

השינוי הזה בשוק יכול להועיל לחברות שמחפשות למנף בינה מלאכותית מבלי להיכנס להוצאות גדולות.היעילות של Deep Seek R1 מציעה ביצועים גבוהים בעלות נמוכה יותר מה שהופך אותו לאופציה אטרקטיבית עבור עסקים שמודעים לתקציב שלהם.

עם שיפור מהיר מאז המודל נבנה בפחות משאבים, Deep Seek עשוי לעבור תהליך פיתוח זריז יותר המוביל לעדכונים תכופים ומהירים יותר.

היתרון של חברות הזנק

הסיפור הזה משמש כתזכורת מדוע סטארט-אפים יכולים לעתים קרובות להתעלות על מקביליהם הגדולים יותר. סטארט-אפים הם בדרך כלל זריזים יותר ויכול להסתובב במהירות בתגובה לצורכי השוק. הם גם נוטים לטפח תרבות של חדשנות שבה כל חבר צוות נמצא

מעודד לתרום למציאת פתרונות יצירתיים. לעומת זאת חברות גדולות עלולות לפעמים להסתבך  בבירוקרטיה וחוסר רצון לסטות מהנורמות המבוססות.

סטארט-אפים יכולים לנוע במהירות ולהסתגל לשינויים ללא צורך בתהליכי אישור נרחבים.

סביר יותר שתרבות חדשנות ותרבות שמעריכה ומתגמלת חדשנות תייצר פתרונות פורצי דרך. תושייה ומשאבים מוגבלים יכולים להוות זרז למציאת דרכים יעילות יותר לפתרון בעיות. ההצלחה של Deep Seek R1 היא הבשורה של מה שעתיד לבוא בתחום הבינה המלאכותית. מפתחים סיניים ממשיכים לחדש ולמטב את הדגמים שלהם,

פיתוח ששווה מעקב מקרוב

סביר להניח שנוף ה- Global AI יהפוך ליותר תחרותי אולם הוא זה גם מעלה שאלות חשובות על ההשפעה של מדיניות הטכנולוגיה של ארה"ב ועתיד  שיתוף הפעולה הבינלאומי במחקרי הבינה המלאכותית. התפתחויות פוטנציאליות עתידיות ומפתחים סיניים ימשיכו לדחוף את גבולות הבינה המלאכותית תוך מינוף הגישות החדשניות שלהם והתושייה לייצירת דגמים אפילו יותר  מתקדמים. הסיפור של R1 הוא שיעור רב עוצמה בדינמיקה של פיתוח טכנולוגי ותחרותיות השוק. זה מדגיש את החשיבות של תושייה חדשנית והסתגלות. ככל שאנחנו מתקדמים, יהיה חיוני לאזון את מדיניות ההגבלות עם הצורך לטפח סביבה גלובלית שמעודדת שיתוף פעולה וחדשנות. בין אם אתם טכנאים חובבים, מנהיגים עסקיים או  צופים סקרניים, Deep Seek R1 הוא פיתוח ששווה מעקב מקרוב.

מה זה Deepseek V3

מה זה DEEPSEEK

מה זה Deepseek V3. תרגום תוכן, סרטון מערוץ היוטיוב © Mind Over Matter. הערוץ מפענח חידושים מורכבים במטרה לחשוף כיצד טכנולוגיות מתקדמות משנות את חיינו. מחשיפת מסתורי הבינה המלאכותית ועד לחקר מעמקי המחשוב הקוונטי, תכני הערוץ מקרבים את העתיד אליכם. למה לצפות?  תובנות פשוטות לגבי טכנולוגיות פורצות דרך,  עדכונים בלעדיים על AI, מחשוב קוונטי ומעבר לכך. סיפורים על חדשנות ממנהיגים כמו OpenAI, Google ו-NVIDIA.  אם אתם סקרנים לגבי הרעיונות שמעצבים את העתיד, הערוץ הזה הוא המקום שבו המסע שלכם מתחיל.

DeepSeek היא חברת בינה מלאכותית סינית המפתחת מודלים של שפות גדולות בקוד פתוח .החברה ממומנת אך ורק על ידי קרן הגידור הסינית High-Flyer  שהוקמה גם על ידי Liang Wenfeng ,

הבינה המלאכותית הפכה עם ה- Deepseek V3 לחכמה יותר. בסרטון הזה אנחנו צוללים לתוך התכונות פורצות הדרך של DeepSeek V3, מודל ה-AI האחרון בקוד פתוח. נראה כיצד הוא מסתדר עם GPT. החל במהירויות מדהימות ויכולות קידוד מתקדמות עם DeepSeek Coder, ועד ליכולת הרב-לשונית שלו.

Deepseek V3 היא לא עוד תוכנה של בינה מלאכותית. זאת מהפכה שכבר משנה את הדרך בה אנחנו חושבים, עובדים ומחדשים. ממהירות בוערת ללא תחרות ועד לאינטיליגנציה שאין כמותה, זאת  פריצת הדרך לה חיכיתם.

מה עומד מאחורי התוכנה

Deepseek V3 הוא מודל AI חדשני. עיבוד מהיר יותר, קבלת החלטות חכמה יותר ויעילות טובה יותר. זאת הליבה של המודל החדש. בואו נגלה את הקסם העומד מאחוריו.הדגם מתבסס על קודמיו אבל מביא שדרוגים מהפכניים.

תכונות המפתח של Deepseek V3

  • פי 3 מהיר יותר מ- Deepseek v2. מהירות מדהימה של כ-60 טוקנים בשנייה.
  • יכולות מושלמות של קידוד, הנמקה ואפילו משימות מתמטיקה מורכבות.
  • ממשק תאימות (1) API שעובד בצורה חלקה עם גרסאות ישנות יותר, מה שמאפשר שדרוגים ללא מאמץ.
  •  נגישות קוד פתוח מדגמים ועד עבודות מחקר, הכל בחינם ופתוח לכולם..

מענה לשאילתות בעולם האמיתי

הוא מצטיין במענה לשאילתות חינוכיות ואספקת תגובות עשירות ומדויקות בהקשר. פלטפורמות קידוד מהשורה הראשונה ביצועים על מדדי קידוד כמו LiveCodeBench, הוא אידיאלי עבור פלטפורמות תכנות תחרותיות וכלים להצעת קוד. מָתֵימָטִי יישומים. של הדוגמנית ביצועים עדכניים ב- Math 500 מדגיש את יכולתו להתמודד עם מתקדמים חשיבה מתמטית ומשימות פתרון בעיות. רב לשוני מערכות ידע. Deepseek v3 מפגין ביצועים מעולים ב אמות מידה רב לשוניות, מה שהופך אותה לכלי רב עוצמה לידע גלובלי ניהול ותרגום.

ביצועים מדהימים

הביצועים של Deepseek v3 מדהימים. לפי מפתח אמות מידה כמו MMLU (2) השיפורים הופכים אותה לבחירה אמינה ליישומים חדשניים ומשימות מגוונות.

האם זה מנצח את ChatGPT?

רבים מכם אולי תוהים איך להשוות את Deepseek  ל-ChatGPT? שני הדגמים מצטיינים בתחומים שלהם, Deepseek מביא יתרונות ייחודיים, כמו מהירויות עיבוד גבוהות פי שלושה ויתרון מיוחד בקידוד, משימות רב לשוניות, ומתמטיקה מתקדמת יישומים. יתרונות ה- GPT בהבנת שפה, בתוכן יצירתי ובפיתוח שיחות. אבל הדיוק של Deepseek הופך אותו למתמודד אדיר בנוף הבינה המלאכותית.

איזה מהם עדיף?

זה תלוי במה שאתם צריכים, אבל Deepseek ללא ספק מעלה את הרף. למה זה משנה? אחד ההיבטים מעוררי ההשראה של Deepseek v3 הוא פילוסופית קוד הפתוח שלו. על ידי שיתוף הדגמים שלה ומחקר בגלוי, הוא מזמין מפתחים וחוקרים מרחבי העולם  לתרום ולחדש. ביחד, אנחנו בונים עתיד שבו AI אינו רק עוצמתי, אבל גם שיתופי וכולל. זאת מעטפת ב-Deepseek V3. אִם אתם נרגשים מהעתיד של AI, אל תשכחו לעשות לייק, לשתף, ולהירשם ל- © Mind Over Matter. עד הפעם הבאה, הישארו סקרנים והמשיכו לחקור.

(1) API זה זה ראשי תיבות של Application Programming Interface. במונח הזה משתמשים בעולמות התכנות והטכנולוגיה על מנת לתאר דרך או גישה למידע של שירות חיצוני, בדרך כלל באמצעות קוד.

(2) מדד MMLU הוא בדיקה למדידת היקף הידע ויכולת פתרון הבעיות שמודלים גדולים של שפה צוברים במהלך אימון מקדים.

אילון מאסק על בינה מלאכותית

אילון מאסק על בינה מלאכותית. בריאיון לטאקר קרלסון שנערך בחודש אפריל 2023 מאסק מעלה את חששותיו לגבי בינה מלאכותית (AI). תרגום תוכן, סרטון מערוץ היוטיוב © Fox News

מאסק מדגיש את הצורך הדחוף ברגולציה ומדבר על הסכנות הפוטנציאליות הנשקפות מבינה מלאכותית. הסכנות עולות על אלו של ייצור מטוסים או רכבים המנוהלים בצורה לא נכונה מכיוון שיש לה יכולת "הרס תרבותי". מאסק מספר על מעורבותו ב-OpenAI (מעבדת מחקר של בינה מלאכותית המורכבת מהתאגיד ללא מטרות רווח) ומביע הסתייגות מהמסלול הנוכחי של הארגון. 

חשבתי על בינה מלאכותית מאז שהייתי בקולג'

מאסק אומר שבינה מלאכותית הייתה בין הדברים שהעסיקו אותו כבר כשהיה בקולג' וישפיעו דרמטית על העתיד. היצורים החכמים ביותר על פני כדור הארץ הם בני האדם. אנחנו חלשים יותר וזריזים פחות משימפנזות אבל חכמים יותר. אז מה יקרה כשהיצור החכם ביותר יגיע בצורת סיליקון? זה נקרא סינגולריות (או ייחודיות) טכנולוגית. זה כמו חור שחור מכיוון שאתה לא יכול לחזות מה יקרה אחרי זה. אז אני חושב שאנחנו צריכים להיות זהירים עם זה. צריך להיות פיקוח ממשלתי כלשהו מכיוון שזה יכול להוות סכנה לציבור. אפשר להשוות את זה למזון ולסמים. זאת הסיבה שיש לנו את מינהל המזון והתרופות ומינהל התעופה.הפדרלי. יש לנו את הסוכנויות האלו לפקח במקומות בהם יכולה להישקף סכנה לציבור. אתה לא רוצה שחברות יחתכו פינות בנושאים בטיחותיים ושאנשים יסבלו כתוצאה מכך.

הצורך ברגולציה ברור

זאת הסיבה שכבר זמן רב אני תומך ברגולציה בעניין הבינה המלאכותית. זה לא כיף להיות תחת רגולציה אבל נראה לי שאוכל להיות מוסדר. יש לי ניסיון רב עם תעשיות רגילות, ברור שתחום הרכב מוסדר מאוד. ניתן למלא את החדר הזה בכל התקנות הנדרשות לייצור רכב. התקנות הן לא רק לגבי ארצות הברית ומתייחסות לאירופה, סין ושאר העולם. אותו הדבר לגבי טילים, כדי לשגר טיל אתה צריך אישורים מחצי תריסר סוכנויות פדרליות ומדיניות. עברתי כל כך הרבה סיטואציות רגולטוריות כך שזה מטורף. לפעמים אנשים רואים בי מתריס רגולציה על בסיס קבוע אבל זה לא נכון. לעיתים נדירות אני לא אסכים עם הרגולטורים, ברוב המכריע של הפעמים החברות שלי מסכימות עם התקנות ועומדות בהן. אני חושב שאנחנו צריכים לקחת את העניין ברצינות וצריך שתיהיה לנו רגולציה.

אני חושב שאנחנו צריכם גוף רגולטורי. צריך להתחיל עם קבוצה שתחפש תובנות לגבי הבינה המלאכותית ותבקש את חוות הדעת של התעשייה ולאחר מכן תציע כללים. קרוב לוודאי שזה יתקבל בחוסר רצון על השחקנים העיקריים. אני חושב שיש לנו סיכוי טוב יותר שבינה מלאכותית מתקדמת תהיה מועילה לאנושות תחת התנאים האלה.

מהן הסכנות הצפויות

בינה מלאכותית מסוכנת אולי יותר מתכנון או ייצור מטוסים ותחזוקה או ייצור מכוניות גרועות. זה לא טריוויאלי, יש לה פוטנציאל, קטן אומנם, של הרס תרבותי. כמו בסרטי שליחות קטלנית (טרמינטור)… אבל זה לא יהי כמו בסרט כי האינטיליגנציה תיהיה במרכזי הנתונים. הרובוט הוא רק הגורם בקצה. תקנות נכנסות לתוקף רק אחרי שמשהו נורא קרה. אם התקנות ייכנסו לתוקף בדיעבד, ייתכן שזה יהיה מאוחר מדי, הבינה המלאכותית כבר תיהיה בשליטה עצמית. זו בהחלט הדרך שבה הדברים מתפתחים.  דברים כמו למשל, ChatGPT שמבוסס על GPT-4, שפיתחה Open AI.  שיחקתי תפקיד קריטי ביצירת החברה, לצערי.

כשקרלסון מציין שמדובר ב-Open AI בראשית דרכה, כשהחברה עוד תפקדה כעמותה ורצתה להציג לעולם כלי AI לשימוש חופשי ולטובת הציבור. מאסק עונה שהסיבה ש- Open AI בכלל קיימת היא בגלל  שלארי פייג'  והוא היו חברים מאוד קרובים.

מאסק ופייג'

היינו  בבית שלו בפאלו אלטו ודיברתי איתו על בטיחות בינה מלאכותית. התפיסה שלי הייתה שלארי לא מתייחס לבטיחות מספיק ברצינות. היה נראה שלארי באמת רצה ליצור סוג של אינטליגנציית-על דיגיטלית, בעצם אל דיגיטלי ובהקדם האפשרי". במהלך השנים לארי יצא בהצהרות רבות , זאת בעצם המטרה של גוגל, AGI בינה כללית מלאכותית או בינה סופר מלאכותית (בעברית 'בינה מלאכותית חזקה').

אני מסכים איתו שיש לזה פוטנציאל טוב גדול אבל יש גם פוטנציאל לרע. אם יש לך טכנולוגיה חדשה קיצונית ואתה רוצה לנסות לבצע סדרה של פעולות איתה, עליך למקסם את ההסתברות שזה יעשה טוב ולמזער סיכוי שזה יעשה דברים רעים. זה גם לא יכול להיות מועיל פשוט להתקדם ולקוות לטוב. ואז בשלב מסוים אמרתי טוב, אנחנו צריכים לוודא שהאנושות בסדר כאן. בתגובה לארי קרא לי 'סוגן' (המתעדף את המין האנושי על פני מינים ביולוגיים אחרים) בשל היותי בעל תודעה אנושית במקום תודעת מכונה. אני כאילו, ובכן, כן, אני מניח שאני אני, אני סוגן.

הקש האחרון ביחסים עם פייג'

הסיטואציה הזו חיסלה את החברות בין לארי וביני. זה היה הקש האחרון מצידו. באותם ימים גוגל רכשה את DeepMind ולגוגל ול-DeepMind יחד היו כשלושה רבעים מכלל כישרונות הבינה המלאכותית בעולם. ברור שהיה להם הרבה כסף ויותר מחשבים מכל אחד אחר. אנחנו כאן בעולם חד-קוטבי שבו יש חברה אחת שיש לה קרוב למונופול על כל הטאלנטים בתחום ה-AI והמחשבים, ולאדם האחראי נראה שלא אכפת מהבטיחות. זה לא טוב. אז חשבתי שהדבר הכי רחוק מגוגל יהיה להקים מלכ"ר פתוח לגמרי. מכיוון שגוגל הייתה סגורה ולמטרת רווח. אז זו הסיבה שה'פתוח' ב-Open AI מתייחס לקוד פתוח. אתה יודע, שקיפות כדי שאנשים ידעו מה קורה. אני בדרך כלל בעד מטרות רווח, אבל אנחנו לא רוצים שזה יהיה סוג של שד ממקסם רווחים מהגיהנום שפשוט לא מפסיק".

לשאלת טאקר קרלסון אם הוא יכול לדייק יותר לגבי מה שעלול להיות מסוכן ומפחיד בבינה המלאכותית מאסק עונה שמובן מאליו שהעט חזקה יותר מהחרב. בינה מלאכותית יכולה לאורך זמן לגלות מה משכנע אנשים, התוכן שייכנס לרשתות החברתיות, טוויטר ופייסבוק ואחרות עלול לעשות מניפולציות על דעת הקהל. ואיך נדע בכלל שזה מה שקרה?

קרדיט תמונה: © Moose Photos