הונאות AI קוליות: איך לזהות שיחה מזויפת ולהגן על המשפחה. תרגום תוכן, סרטון מערוץ היוטיוב © ABC7. הערוץ בבעלות חברת וולט דיסני הוא ספינת הדגל של קבוצת ABC Owned Television Stations בחוף המערבי בארה"ב. הוא משמש כמקור החדשות מספר 1 בדרום קליפורניה ובאזור לוס אנג'לס רבתי. בסרטון הפעם – הונאות Deepfake קוליות הופכות למציאות. למדו כיצד טכנולוגיית AI משכפלת קולות של יקיריכם כדי לבקש כסף. מדריך ב- 3 שלבים להגדרת 'מילת קוד' משפחתית והימנעות מנפילה בפח.
תרגום הכתבה של ABC7 – הונאת ה- AI ששיבטה את קול הבן
טכנולוגיית Deepfake קולית יוצרת גל הונאות עולמי מתוחכם חדש. הטכנולוגיה מבוססת בינה מלאכותית משכפלת קול אנושי ברמת דיוק כמעט מושלמת.
סיפור הקורבן: הדרמה וההלם
הדיווח נפתח בסיפורו של דייויד, אב שרוצה להעביר סכום עתק של 25,000 דולר.
שיחת החירום
דייויד קיבל שיחה ממישהו שדיבר בדיוק בקול של בנו. הקול נשמע מבוהל וטען שהוא מעורב בתאונת דרכים קשה, נעצר וצריך כסף באופן מיידי לשחרור בערבות או לטיפול רפואי דחוף.
ההיבט הפסיכולוגי
דייויד העיד שהאינסטינקט ההורי והפחד המיידי גברו על כל שיקול דעת. הנוכלים השתמשו בטקטיקה של "הפחדה דחופה" שלא הותירה לו זמן לשאול שאלות והוא העביר את הכסף במהירות.
המנגנון הטכנולוגי: איך זה עובד?
מומחי אבטחת סייבר שהתראיינו לכתבה הדגישו כי הטכנולוגיה התפתחה בקצב מסחרר
דגימה מינימלית
כדי לשכפל קול אמין, הנוכלים זקוקים כיום רק לדגימת קול קצרה של 3 שניות.
מקור המידע
דגימות קול כאלה נלקחות בקלות מסרטונים שהקורבנות מעלים לרשתות החברתיות טיקטוק, אינסטגרם או פייסבוק.
הקושי בזיהוי
מכיוון שהקול אכן נשמע כמו זה של בן משפחה הסימנים היחידים לזיהוי הם טקטיקות השיחה. קצב מעט מוזר, גוון "שטוח" או בקשה חריגות כמו "אל תספר לאף אחד שדיברת איתי עכשיו".
הפתרון המעשי: מילת הקוד הסודית
המומחים סיפקו המלצה אוניברסלית ופשוטה להגנה עצמית. ההבנה היא שאסור לסמוך יותר על הקול לבדו. הפעולה המונעת – כל משפחה צריכה להגדיר מראש "מילת קוד" סודית שידועה אך ורק לבני המשפחה. אם מתקבלת שיחת חירום בה נדרשת פעולה כספית, יש לדרוש מהצד השני להגיד את מילת הקוד. אם המתקשר מתחמק, משנה את הנושא, או לא יודע את המילה – זוהי הונאת AI.
המסקנה
הסיכום מחזק את המסר כי האיום הוא ממשי ופועל על הרגש. ההגנה הפשוטה ביותר נמצאת בתקשורת משפחתית ובקביעת כלל פשוט: אין העברת כספים בשיחת חירום ללא אימות באמצעות סיסמה סודית.
הונאות ה- AI, הממדים המטורפים ואיך תוכלו להתגונן (מערכת Zemaze)
הונאות ה- AI הן כבר לא עניין של 'האקרים'. זו תעשייה עולמית מפותחת. הנה כמה נתונים עדכניים:
הסכום הגלובלי
הערכות עדכניות לשנת 2025 מצביעות על כך שההפסדים הפיננסיים העולמיים מהונאות Deepfake עשויים לעבור את רף ה-1.5 מיליארד דולר וזה רק בהונאות קוליות ווידאו מדווחות.
צמיחה מטורפת
חברות אבטחה מדווחות על עלייה של למעלה מ-1,700% במקרי הונאת Deepfake בצפון אמריקה בין 2022 ל-2023. הנתונים האלו עולים בקצב מסחרר ככל שהכלים הופכים זולים יותר.
ההונאה הגדולה ביותר – 25 מיליון דולר
ההונאה הגדולה ביותר עד כה התרחשה ב-2024. האירוע דווח בהרחבה על ידי סוכנויות חדשות עולמיות כמן סוכנות רויטרס וגופי סייבר. הפייננשל טיימס ניתח את ההשלכות הטכנולוגיות והמשפטיות של התרמית. זהו אחד ממקרי ההונאה המתקדמים והמתוחכמים ביותר שנראו עד אז, שהשתמשו בדיפ־פייק וידאו ואודיו ברמה גבוהה.
הזמנה לשיחת וידאו חשאית
עובד זוטר בסניף הונג קונג של חברה בינלאומית קיבל הזמנה לשיחת וידאו "חשאית" שנראתה לגיטימית לחלוטין. בשיחה הופיעו אנשים שנראו כמו מנכ"ל החברה, סמנכ"ל הכספים, מספר מנהלי מחלקות ועובדים נוספים. כולם נראו ודיברו בצורה משכנעת אבל אף אחד מהם לא היה אמיתי. הנוכחים היו למעשה שחקנים דיגיטליים Deepfake של פנים ושל קול, שנבנו על בסיס סרטונים והקלטות זמינות.
מה העובד התבקש לעשות?
במהלך השיחה ה-"בכירים" הורו לעובד לבצע העברות כספים דחופות וסודיות לצורך רכישה אסטרטגית, פעולה שאסור להעביר עליה דיווח פנימי. כדי להסיר חשד, הדמויות בדיון ענו לשאלות, הסתנכרנו ביניהן, והגיבו בזמן אמת. העובד האמין שמדובר בפרויקט אמיתי ברמת רגישות גבוהה.
סכום ההונאה
העובד ביצע 15 העברות בנקאיות שונות למספר חשבונות בחו"ל. סה״כ נגנבו 200 מיליון דולר הונג־קונגי (בערך 25 מיליון דולר אמריקאי)
איך ההונאה נחשפה?
ברגע שהעובד ניסח דוח פנימי מאוחר יותר, החברה שמה לב שהנושא לא תואם למציאות. רק אז התברר שאף מנהל לא השתתף בשיחת הווידאו, לא הייתה שום בקשה להעברה, הפנים והקולות היו מזויפים.
המשטרה בהונג קונג אישרה שהחלק המשמעותי של ההונאה נעשה בעזרת דיפ־פייק מתקדם ברמת שיחות מרובות משתתפים, דבר שלא היה נפוץ עד אז.
למה זה היה כל כך משכנע?
התוקפים אספו סרטוני וידאו פומביים של מנהלי החברה מהרשתות החברתיות, ראיונות וכנסים. הם השתמשו במערכות AI ליצירת סנכרון שפתיים מלא, תנועות ראש, ותנועות גוף. הם השתמשו בכלי Voice Cloning כדי לדמות את קולות המנהלים והריצו את הכל בזמן אמת במערכת Multi-participant Deepfake, טכנולוגיה שמתחילה להתפשט.
כל זה מוכיח שדיפ־פייק כבר לא מוגבל לסרטון קצר אלא מסוגל ליצור פגישות עסקיות שלמות. גם עובדים קפדניים עלולים להיות מוטעים אם הכול נראה "אמיתי". מערכות אבטחת מידע קלאסיות (אימות כתובת מייל, אימות דו־שלבי וכו׳) לא עוזרות מול זיוף בני אדם בזמן אמת.
הגנה מונעת: צעדים ברשתות החברתיות
כדי למנוע מהנוכלים להשיג דגימות קול שלכם ושל יקיריכם מראש, נקטו בצעדי המנע הפשוטים האלה:
הגדירו את הגדרות הפרטיות שלכם ברשתות החברתיות ל-"חברים בלבד".
צמצמו העלאת סרטונים או הקלטות קוליות ציבוריות שאינן נחוצות.
אל תשתתפו במבחנים או משחקים מקוונים הדורשים להקליט את קולכם.
