דיפ-פייק
Deepfake (בעברית: דיפ-פייק או דיפייק) היא טכנולוגיה מבוססת בינה מלאכותית ליצירת סרטוני וידאו, צילומים או קטעי קול מזויפים המתעדים כביכול פעילות של אדם שמעולם לא התקיימה במציאות[1]. דיפ-פייק מאפשר ליצור תוכן מזויף שנראה אמיתי באופן שמקשה, ולעיתים הופך לבלתי אפשרי, להבחין שמדובר בזיוף.[2] טכנולוגיית הדיפ פייק מחריפה את בעיות המידע השגוי והדיסאינפורמציה ויש לה השלכות שליליות משמעותיות בהיבטים של פגיעה מדינית ופגיעה בפרט.[3] נעשה בטכנולוגיה שימוש להפקת סרטונים פורנוגרפיים של ידועניות, פורנוגרפיית נקם, פייק ניוז ומתיחות זדוניות (אנ')[4] כמו גם ספינים תקשורתיים להשפעה פוליטית גלובלית או מקומית.[2]
הגדרה
[עריכת קוד מקור | עריכה]הביטוי הוא הלחם של המילים "Deep learning" (למידה עמוקה) ו-fake ("זיוף")[4] והשתמשו בו לראשונה בשנת 2017 באתר רדיט. דיפ-פייק הוגדר משפטית בפסיקה של שופט בית המשפט העליון עוזי פוגלמן בשנת 2021 כ"טכנולוגיה ליצירת תוכן קולי או חזותי או לשינוי תוכן קיים, כך שהצופה הסביר ואף הצופה המתוחכם, יסבור כי פלוני ביצע פעולה או העביר מסר, אך התוכן אינו אמיתי. התוכן הוא באיכות גבוהה עד כדי כך שמשתמש מן היישוב יתקשה לרוב לגלות שמדובר בזיוף ". יש אבחנה בין דיפ-פייק לבין זיופים אחרים הנקראים צ׳יפ־פייק. ליצירת דיפ-פייק דרוש אלגוריתם מתוחכם[5] ואילו צ'יפ פייק מושגים באמצעים פשוטים יותר ונעשות הם מניפולציות פשוטות כמו למשל באמצעות פוטושופ.[6][2]
היסטוריה
[עריכת קוד מקור | עריכה]התפתחות טכנולוגיית הדיפ-פייק התרחשה במידה רבה בשני מישורים: מחקר במוסדות אקדמאיים ופיתוח על ידי חובבים בקהילות מקוונות.
מחקר אקדמי
[עריכת קוד מקור | עריכה]שורשי המחקר האקדמי של טכנולוגיית הדיפ-פייק טמונים בעיקר בתחום הראייה הממוחשבת, תת-תחום של מדעי המחשב המבוסס לעיתים קרובות על בינה מלאכותית, שמתמקד בעיבוד ממוחשב של תמונות וסרטונים דיגיטליים. ציון דרך מוקדם היה תוכנית מחשב לשכתוב וידאו שפורסמה בשנת 1997; התוכנית שינתה קטעי וידאו קיימים של אדם מדבר והתאימה את הדיבור שלו לרצועת אודיו שונה[7]. זו הייתה המערכת הראשונה שביצעה שינויים בהבעות פנים באופן אוטומטי לחלוטין, והיא עשתה זאת באמצעות טכניקות למידת מכונה כדי ליצור קשרים בין הקול שמופק על ידי דמות בווידאו וצורת הפנים שלה.
פרויקטים אקדמאיים עדכניים התמקדו ביצירת סרטוני וידאו מציאותיים יותר והפיכת הטכניקות לפשוטות, מהירות ונגישות יותר. בשנת 2016 פורסמה תוכנית המחשב "Face2Face", שהתאימה קטעי וידאו של פני אדם כך שיחקו הבעות פנים של אדם אחר בזמן אמת[8]. התוכנית התמקדה בחיקוי הבעות פנים בזמן אמת באמצעות מצלמה שלא תופסת עומק שדה ובכך מאפשרת להשתמש בטכנולוגיה במצלמות צרכנים נפוצות. בשנת 2017 פורסמה תוכנית מחשב בשם "Synthesizing Obama", שלקחה קטעי וידאו של נשיא ארצות הברית לשעבר ברק אובמה והתאימה את הדיבור שלו לרצועת אודיו נפרדת[9]. התוכנית התמקדה ביצירת טכניקה פוטו-ריאליסטית לסינתזת צורות פה מאודיו.
פיתוח חובבים
[עריכת קוד מקור | עריכה]מקור הביטוי דיפ-פייק לקוח ממשתמש רדיט אנונימי בשם "deepfakes"[10][4]. הוא, כמו אחרים בקהילת r/deepfakes ברדיט, שיתפו סרטוני דיפ-פייק שהם יצרו; סרטונים רבים הטמיעו פנים של ידועניות על גוף של שחקניות פורנו[10], בעוד שתוכן לא-פורנוגרפי כלל סרטונים רבים שבהם הטמיעו את הפנים של השחקן ניקולס קייג' בסרטים שונים[11].
תופעת הדיפ-פייק דווחה לראשונה בדצמבר 2017 במדור המדעי והטכני של מגזין Vice, מה שהוביל לסיקור נרחב בכלי תקשורת נוספים. סמנתה קול פרסמה מאמר על קהילת r/deepfakes שיצרה ושיתפה דיפ-פייקים[12], ושישה שבועות לאחר מכן היא כתבה מאמר נוסף על הגידול בפורנוגרפיה מבוססת בינה מלאכותית[10]. בפברואר 2018, קהילת r/deepfakes נסגרה על ידי אתר רדיט בשל שיתוף חומרים פורנוגרפיים ללא הסכמת המשתתפים. אתרים נוספים אסרו הפצה ושיתוף חומרי דיפ-פייק, ביניהם טוויטר ו-Pornhub[13]. קהילות מקוונות שלא משתפות חומרי דיפ-פייק פורנוגרפיים נותרו, כולל קהילת רדיט r/SFWdeepfakes שחולקת חומרים בטוחים לסביבת העבודה (safe for work deepfakes)[14].
שימוש לרעה
[עריכת קוד מקור | עריכה]פגיעה ברמה מדינית
[עריכת קוד מקור | עריכה]השימוש ביכולות דיפ-פייק סומן על ידי ארגוני המודיעין האמריקאיים בשנת 2019 כאיום האסטרטגי הגדול ביותר על הביטחון הלאומי. טכנולוגיה זו מעצימה את אתגרי עידן הפוסט-אמת והפייק ניוז. הסכנה הלאומית בדיפ-פייק מובילה לערעור האמת ולחשד בכל פיסת תוכן, גם אם היא אמיתית.[15] דיפ פייק עלולים לשמש לתיאור דברים שמעולם לא נאמרו או נעשו על ידי מועמדים פוליטיים או מפורסמים ויצירת אירועי חדשות כוזבים. דיפ-פייק יוצר נזקים חברתיים כוללים עיוות השיח הדמוקרטי, מניפולציה של בחירות, שחיקת האמון במוסדות, פגיעה באכיפת החוק והמסחר, החמרת הפילוגים החברתיים, ופגיעה בביטחון הציבור. לדוגמה, סרטון דיפ פייק מסית עלול להצית תסיסה אזרחית, מהומות, הגברת רמת האלימות, ערעור הסדר הציבורי ואובדן אמון הציבור במסרים אמיתיים[2].[16][17]
דיבידנד השקרן- בנוסף לקושי לזהות מידע מטעה, קיים חשש שאנשים יוכלו להכחיש תיעוד אודיו ווידאו אותנטי על ידי טענה שהוא מזויף, ובכך להימנע מאחריות למעשיהם.[16] במחקר משנת 2025 נמצא שאנשים מתחילים לחשוד בסרטונים אותנטיים לאחר שהם מקבלים רמז לכך שמדובר בהונאת דיפ-פייק[18]. ממצב זה בו גדל הספק של הציבור לגבי מה אמת ומה שקר מי שמשקר מרוויח .[19]
הפורום הכלכלי העולמי הצהיר בינואר 2024 שהאיום הגדול ביותר לטווח קצר על הכלכלה העולמית הוא מיסאינפורמציה ודיסאינפורמציה המובלים על ידי בינה מלאכותית[20].
לדיפ-פייק יש פוטנציאל להשפיע על תהליכים מדיניים כמו הליכי בחירות דמוקרטיות. דוגמה להשפעה בקנה מידה מדיני היא תופעת פייק ניוז של סרטונים מזויפים באמצעות בינה מלאכותית, שעושים שימוש בדמויות של עיתונאים, ובמיוחד שדרני טלוויזיה כדי לקדם תרמיות רשת[21]. טכנולוגיה זו משמשת ליצירת ייצוג שקרי ולא הולם של פוליטיקאים. כך למשל הוחלפו פניו של נשיא ארגנטינה מאוריסיו מאקרי בפניו של אדולף היטלר, ופניה של אנגלה מרקל בפניו של דונלד טראמפ. קווין סיסטרום, מייסד אינסטגרם, הביע דאגה מתופעת הדיפ-פייק ואמר "זה נראה קרוב מאוד לאמיתי, בעולם שבו אפשר להפיץ לעולם מידע במהירות רבה ולגרום לו להדהד, מה קורה אם אתה חושב שדמות פוליטית כלשהי אמרה משהו שבעצם לא נאמר?"[22]
פגיעה ברמת הפרט
[עריכת קוד מקור | עריכה]אחד השימושים הנפוצים ביותר בטכנולוגיית דיפ-פייק הוא פגיעה באנשים פרטיים. טכנולוגיות דיפ-פייק עלולות לפגוע בכבוד האדם של מי שזהותם נגנבה או דמויותיהם מוצגות באופן מבזה[23]. פגיעה ברמת הפרט יכולה להגרם מיצירת תוכני פורנוגרפיה מזויפים או מחיקוי קולו של אדם למטרות שוד וסחיטה[2]. הדיפ פייק יכולים לשמש לתיאור מעשי רצח כוזבים, הפללת אדם, זיוף ראיות למערכות נשק שלא קיימות, או זיוף ראיות בתאונות דרכים.[17]
השפעות חברתיות ופסיכולוגיות
[עריכת קוד מקור | עריכה]בנוסף להיבטים הטכנולוגיים, הדיפ-פייק מהווה אתגר משמעותי במערכת היחסים שבין פלטפורמות דיגיטליות לתהליכים חברתיים. מחקרים בתחום הסוציולוגיה מצביעים על כך שהיכולת ליצור זיופים כל כך מדויקים מחריפה את תופעת ה"פוסט-אמת", שבה היכולת של הציבור להאמין למידע חזותי באינטרנט כעובדה אובייקטיבית הולכת ונעלמת. לפי מאמר של שקד דברן ואילת ברעם-צברי, מצב זה מוביל לערעור של מבני ידע מקובלים בחברה ולטשטוש הגבולות בין אמת לפייק במרחב המקוון. היעדר היכולת לאמת את התוכן אליו אנו נחשפים יוצרת "דילמת אמינות" שעלולה לפגוע ביכולת של הפרט לגבש דעה מבוססת עובדות בזירות החברתיות והפוליטיות.[24]
במישור הפסיכולוגי, הדיפ-פייק משפיע על האופן שבו אנשים מנהלים ותופסים את הזהות הדיגיטלית שלהם. היכולת לשכפל ולתמרן תמונות וסרטונים של אנשים ללא הסכמתם פוגעת באוטונומיה של האדם על עצמו ברשת ומערערת את הקשר בין האדם הפיזי לייצוגו הדיגיטלי ויכולה להוביל לפגיעה פיסכולוגית של ממש.[25] תופעה זו אינה פוגעת רק בפרט, אלא משפיעה על הלכידות החברתית כולה. החוקרת אליס מרוויק טוענת כי מניפולציות בזהות הדיגיטלית עלולות לשמש ככלי להדרה של קבוצות מיעוט ולשימור יחסי כוח חברתיים קיימים, במיוחד סביב נושאי מגדר וייצוג של קבוצות מיעוט במרחב הציבורי.[26]
מעבר לנזקים המיידים, האפשרות ליצור זיופים מדויקים גורמת לאנשים רבים לאבד אמון במה שהם רואים ושומעים באינטרנט. מצב זה יוצר פחד פסיכולוגי: אנשים חוששים שמישהו "יגנוב" את המראה שלהם וישתמש בו כדי לגרום להם להיראות כאילו עשו דברים שלא עשו. כתוצאה מכך, חלק מהמשתמשים מרגישים פחות בטוחים לשתף תמונות או סרטונים של עצמם, דבר שפוגע ביכולת שלהם לבטא את זהותם באופן חופשי ברשת.[25]
הונאות פיננסיות
[עריכת קוד מקור | עריכה]על פי איגוד האינטרנט הישראלי נכון לשנת 2025 קיים גל חדש ומתגבר של הונאות רשת גלובליות, המשתמשות בטכנולוגיות בינה מלאכותית וכלים לפרסום ממומן ברשתות חברתיות. הוא מאופיין באימוץ מהיר של טכנולוגיות בינה מלאכותית חדשות, המאפשרות ליצור תוכן מזויף ומשכנע, כגון תמונות או סרטוני דיפ-פייק. טכנולוגיות אלו הופכות את פעולת ההונאה לנגישה, זולה ואפקטיבית. הנוכלים יוצרים עמוד סושיאל מזויף או משתלטים על עמוד קיים. הם יוצרים סרטוני דיפ פייק ומתאימים את הפרזנטורים המוצגים בהם ואת השפה והסגנון הוויזואלי לקהלי יעד שונים. המודעות המקדמות את סרטוני הדיפ-פייק מופצות באמצעות קידום ממומן. הקורבן מקבל פרטי גישה לפלטפורמת מסחר מזויפת, הנראית מקצועית ומתבקש להפקיד סכום התחלתי. באמצעות יצירת תחושת דחיפות ואמון מזויף והצגת נתונים פיקטיביים, מתמרנים את המשתמש להפקיד סכומים נוספים ומידע רגיש, עד לשלב בו הוא מבקש למשוך את הכספים ומגלה שהפסיד את כל הונו.[27]
קיימים כשלים בטיפול בתופעה. הפלטפורמות מתקשות לנטר ולטפל בכל המודעות של אותו מפרסם ולרוב מסירות מודעה בודדת בלבד מבלי לטפל במערכת ההונאה כולה או להטיל סנקציות על העמודים המפרסמים. אין זיהוי מקדים ואפקטיבי של סרטוני AI זדוניים ודיפ-פייק ולמשתמשי הפלטפורמות אין כלים מתקדמים ויעילים לדיווח על הונאות ופגיעה פיננסית.[27]
תועדו מקרים של שימוש בעיבוד קולי מזויף שגרם להונאת והעברת כספים במרמה בסכומים גדולים. למשל כ-240 אלף דולר בבריטניה ו-35 מיליון דולר באיחוד האמירויות הערביות[15] ובשנת 2019 נגנבו כמעט רבע מיליון דולר על ידי זיוף קול[28].
פורנוגרפיה
[עריכת קוד מקור | עריכה]
ערך מורחב – פורנוגרפיית דיפ-פייק
שימוש ידוע לשמצה בטכנולוגיית דיפ-פייק הוא הטמעת פנים של ידועניות על גוף של שחקניות פורנו ויצירת סרטונים פורנוגרפיים מזויפים. פורנוגרפיית דיפ-פייק הופיעה לראשונה באינטרנט בשנת 2017 כאשר משתמש אנונימי בשם "deepfakes" פרסם מספר סרטונים פורנוגרפיים מזויפים באתר רדיט; הראשון שמשך תשומת לב היה סרטון של השחקנית דייזי רידלי. ידועניות נוספות שפורסמו סרטונים מזויפים שלהן: גל גדות, אמה ווטסון, קייטי פרי, טיילור סוויפט, מייזי ויליאמס וסקרלט ג'והנסון[29]. סרטונים אלו הוסרו זמן קצר לאחר פרסומם.
לאחר שטוויטר ואתר הפורנו Pornhub אסרו הפצת חומרים פורנוגרפיים מבוססי בינה מלאכותית, אתר רדיט עדכן את המדיניות שלו ב-7 בפברואר 2018 ואסר פרסום פורנוגרפיה שנעשתה ללא הסכמת המשתתפים[30]. עם זאת, קהילות מקוונות אחרות ממשיכות לשתף פורנוגרפיית דיפ-פייק בפלטפורמות שבהן לא עדכנו את המדיניות[13].
סקרלט ג'והנסון, שהשתמשו בדמותה לא פעם בסרטי דיפ-פייק פורנוגרפיים, דיברה בפומבי על הנושא במאמר ב"וושינגטון פוסט" בדצמבר 2018. היא הביעה דאגה מהתופעה, אך הצהירה שלא תנסה להסיר את הסרטונים כיוון שמדובר במאבק אבוד בשל אופי תרבות האינטרנט והחוקים השונים בכל מדינה; היא מאמינה שבעוד ידועניות כמותה מוגנות מעצם פרסומן, תופעת הדיפ-פייק מהווה איום כנגד נשים שהמוניטין שלהן עלול להיפגע כתוצאה מפורנוגרפיית נקם[31][32].
בבריטניה ניתן להעמיד לדין מפיקי דיפ-פייק בגין הטרדה, אך יש דרישה לחוקק חוק ספציפי יותר[33]. בארצות הברית הוגשו אישומים מגוונים בדבר גנבת זהות, סייבר-סטוקינג (אנ') ופורנוגרפיית נקם, ונידונה האפשרות לחוקק חוק מקיף יותר[34].
ביוני 2019 יצא לאור יישום מחשב לווינדוס וללינוקס בשם "DeepNude", המשתמש בטכניקת רשת אדברסרית גנרטיבית (GAN) להסרת ביגוד מתמונות של נשים. לאפליקציה הייתה גרסה חינמית וגרסה בתשלום שעלתה 50 דולר[35]. ב-27 ביוני, לאחר חצי מיליון הורדות וקריסה של השרת[36], יוצרי האפליקציה הסירו את התוכנה ונתנו החזר כספי לרוכשים[37].
בסוף ינואר 2024 תמונות עירום מזויפות של הזמרת האמריקאית טיילור סוויפט, שיוצרו באמצעות בינה מלאכותית, הופצו ברשתות החברתיות וזכו לתפוצה רחבה. התמונות הפוגעניות עוררו תגובות זעם מצד ארגונים נגד פגיעה מינית, פוליטיקאים, מעריצים ומנכ"ל מיקרוסופט, סטיה נאדלה, שחברתו סיפקה את הכלים ליצירת התמונות. בעקבות המקרה הוצע חוק בארצות הברית שיאפשר לקורבנות תמונות מזויפות לתבוע את יוצריהן ומפיציהן, והאיחוד האירופי הגיע להסכמה על חקיקה דומה. יש הטוענים כי מעורבותה של דמות מפורסמת כמו סוויפט בסוגיה עשויה להעלות מודעות ולהוביל לרפורמה פוליטית בתחום פורנוגרפיית העמוקה (Deepfake).
הדוח "מצב הדיפייקס" מ-Home Security Heroes חושף תובנות משמעותיות לגבי שכיחותם והשפעתם של סרטוני דיפייק[38]. הממצאים העיקריים כוללים עלייה של 550% בסרטוני דיפייק באינטרנט מאז 2019, כאשר 98% מהם הם פורנוגרפיית דיפייק, המכוונת ברובה לנשים (99%). חלק ניכר כולל בידור דרום קוריאני, ומספר גדול של צופי פורנוגרפיית דיפייק אינם חשים אשמה בצריכת תוכן זה. התקדמות הטכנולוגיה מאפשרת כיום יצירת סרטוני דיפייק בפחות מ-25 דקות ללא עלות, באמצעות תמונה אחת ברורה בלבד. הדוח מדגיש את הנגישות הגוברת והשימוש בכלי יצירת דיפייק, ומבליט את הצורך בשיקולים אתיים ובהגנות רגולטוריות.
ב-6 באפריל 2024 פורסמה כתבה בהמקום הכי חם בגיהנום אשר עוסקת בהפצת תמונות עירום מזויפות, המיוצרות באמצעות טכנולוגיות בינה מלאכותית אשר הפכה לתופעה מדאיגה הפוגעת בעיקר בנערות וצעירות[39]. בכתבה מצוין כי ההפצה של תמונות אלו ברשתות החברתיות נחשבת כפגיעה מינית ועשויה לגרום לנזק נפשי משמעותי לקורבנות, בדומה לפגיעה מינית פיזית. התופעה מעלה שאלות לגבי הצורך בחיזוק החינוך המיני ומיומנויות הגלישה הבטוחה של בני נוער, כמו גם אתגרים משפטיים הנוגעים להתמודדות עם פגיעות מיניות מקוונות באמצעים טכנולוגיים חדשים. מומחים קוראים לשיתוף פעולה בין ההורים למערכת החינוך על מנת לפתח דרכים יעילות להגנה על בני נוער מפני פגיעות אלו ולהקניית כלים להתנהלות מושכלת ובטוחה במרחב הדיגיטלי.
תופעות דומות דווחו גם בכתבה בניו יורק טיימס מאפריל 2024 לגבי חטיבות ביניים ותיכונים בארצות הברית. על פי הדיווח, במהלך מרץ 2024, הזהיר ה-FBI כי הפצת חומרים מסוג זה, כולל תמונות מציאותיות לכאורה שנוצרו על ידי בינה מלאכותית וכוללות דימויים מיניים של קטינים הניתנים לזיהוי היא אינה חוקית. למרות זאת, התופעה של תלמידים המשתמשים באפליקציות בינה מלאכותית נצלניות בבתי הספר היא כל כך חדשה, שחלק מבתי הספר לא החלו עדיין להתמודד עם התופעה[40][41].
התמודדות עם התופעה
[עריכת קוד מקור | עריכה]תגובת הציבור והשפעתה
[עריכת קוד מקור | עריכה]הטכנולוגיה הגיעה לחשיפה בציבור הרחב בתקופה בה עדיין בוצעו חקירות בארצות הברית בנוגע להשפעתה של חברת קיימברידג' אנליטיקה ולגורמים מרוסיה על הבחירות לנשיאות ארצות הברית של שנת 2016, ועל רקע חשדות להתערבותן של רוסיה ומדינות נוספות בבחירות במדינות דמוקרטיות נוספות[42][43]. הציבור המערבי היה מודע לתופעות של שימוש במידע כוזב לצרכים פוליטיים, דוגמת השיטות הדיגיטליות להפצת פייק ניוז ברשתות החברתיות. הדיפ-פייק נתפס כאיום לא מוכר להטיה אפשרית של תוצאות בחירות במדינות דמוקרטיות, להשפעה על תפיסות ציבוריות של ציבורים רחבים ולזריעת בלבול ומחלוקת בין מדינות יריבות[44].
הלחץ הציבורי על הרשתות החברתיות, שנתפסו בציבור ובקרב פוליטיקאים משני המחנות האמריקאים כאחראיות במידה מסוימת על ניצול הפלטפורמות שלהן לביצוע שיטות התערבות בתוצאות הבחירות, דחף אותן למהר ולחפש פתרונות לנושא, ולשתף פעולה עם חברות טכנולוגיה המציעות פתרונות לנושא. ההנחה טרם הבחירות לנשיאות ארצות הברית של שנת 2020, הייתה שמדובר בטכנולוגיה לא מוכרת המתפתחת במהירות, כך שמציאת פתרון גורף לתופעה עד לבחירות הוא לא סביר[44].
חקיקה
[עריכת קוד מקור | עריכה]בשנת 2019 הפכה קליפורניה למדינה הראשונה שחוקקה חוקים נגד הדיפ-פייק, כאשר אושרו במדינה שני חוקים - האחד אוסר על הפצה של סרטונים שעברו מניפולציה במטרה לפגוע בדמותו של מועמד פוליטי, או להשפיע על דעתם הפוליטית של מצביעים בטווח של 60 יום מיום בחירות. השני מעניק לתושבי קליפורניה את הזכות לתבוע אדם שיצר דיפ פייק בו מוטמעת דמותם בחומרי פורנו ללא הסכמתם[45]. טקסס חוקקה חוק האוסר על יצירת והפצת סרטוני דיפ פייק שמטרתם לפגוע במועמדים פוליטיים. וכן חוק התחזות פלילית שיכול להיות רלוונטי במקרים של דיפ פייק אם הנאשם התכוון להטיל אימה או לפגוע באדם, וידע שהווידאו מזויף[46].
טיוטת חוק הבינה המלאכותית האירופית מתייחסת למערכות המבצעות מניפולציות בדיפ-פייק. החוק האירופי המוצע קובע חובת גילוי למערכות אלה, המחייבת לסמן בצורה ברורה וגלויה כי מדובר בתוכן לא אותנטי[47]
חברת יוטיוב אוסרת לפרסם תוכן שעבר שינוי או עריכה באמצעים טכניים כדי להטעות משתמשים, ושעלול להוות סיכון רציני לנזק חמור.[47]
זיהוי
[עריכת קוד מקור | עריכה]אוריינות
[עריכת קוד מקור | עריכה]הרצאות בנושא אוריינות תקשורתית, ובמיוחד אלה שהתמקדו ספציפית בטכנולוגיית דיפ פייק, הוכחו כיעילות בהעלאת שיעור הזיהוי של מסרים מזויפים. אחת הסיבות ליעילות הגבוהה של הדרכת אוריינות ספציפית לדיפ פייק היא העובדה שעבור משתתפים רבים, זו הייתה החשיפה הראשונית שלהם למושג, מה שעורר תגובה זהירה יותר[3]
זיהוי ויזואלי
[עריכת קוד מקור | עריכה]מדריך הסייבר הלאומי מפרט דרכי הזיהוי מתבססות על בדיקה ויזואלית של עקביות וטבעיות. הומלץ בו לבחון את הסרטון מקרוב על מסך גדול יותר או להאט את הפעלתו. כן הומלץ לבבע חיפוש תמונות הפוך רשרעשוי לחשוף סרטונים דומים באינטרנט.
יש לשים לב סימנים לזיהוי דיפ פייק:
- תנועת עיניים לא טבעית או היעדר מצמוץ.
- תנועת גוף לא טבעית או תנועות קופצניות.
- צבעים וגוונים חריגים או תאורה מוזרה.
- שיער שלא נראה אמיתי. שיניים שאינן נראות אמיתיות היעדר קווי מתאר מפרידים בין השיניים.
- טשטוש או חוסר יישור בקצוות התמונות.
- חוסר עקביות ותקלות באודיו, כגון סנכרון שפתיים לקוי, קולות שנשמעים רובוטיים או הגיית מילים מוזרה.
זיהוי באמצעים טכנולוגים
[עריכת קוד מקור | עריכה]טכנולוגיות לזיהוי דיפ-פייק מוגבלות. הבעיה מחריפה כאשר תוכן משותף ברשתות מוצפנות כמו ווטסאפ, שם הפלטפורמות אינן יכולות לנטר את התוכן. טכנולוגיה יכולה רק להאט את התופעה ולא לחסל אותה.[6]
ככל שטכנולוגיית דיפ-פייק מתפתחת נעשה קשה יותר ויותר להבחין בין זיוף למקור. בשל כך, חוקרים החלו לפתח כלים לאימות תוכן ואיתור דיפ-פייק. חלק מהמחקרים מתמקדים בזיהוי סרטוני דיפ פייק על ידי זיהוי עיוותים בפנים (face warping artifacts) ועל ידי זיהוי אותות ביולוגיים בסרטוני פורטרט סינתטיים[48]:
הסטארט-אפ Truepic פיתח אלגוריתם לאימות תמונות באמצעות אפליקציה[49]; חוקרים מאוניברסיטת אולבני פיתחו גלאי זיופים על סמך דפוסים לא טבעיים של מצמוצים[50]. חוקרים מאוניברסיטת דרום קליפורניה בשיתוף עם המכון לטכנולוגיות יצירתיות בלוס אנג'לס (אנ') בנו אלגוריתם לזיהוי בינה מלאכותית בסרטוני וידאו של פוליטיקאים שעוקב אחר הבעות פנים זעירות הידועות גם כביומטריה רכה (אנ')[50].
דרפ"א - סוכנות המחקר הטכנולוגי של הצבא האמריקאי החלה לפתח טכנולוגיות אוטומטיות לאיתור זיופים ואימות אותנטיות של סרטוני וידאו באמצעות מעבדת מדיה פורנזית[51], דוגמת זיהוי חוסר עקביות בתאורה על פני המשתמש. דרפ"א גם מממנת מאמצים שמטרתם ללכוד דיפ פייק ותרמיות AI אחרות.[48] הוועדה הטרנס-אטלנטית ליושר בבחירות (אנ') מפתחת כלים למניעת התערבות דיפ-פייקים בבחירות לנשיאות[4].
מתקיים מרוץ בין מפתחי טכנולוגיות יצירה של דיפ פייק לבין מפתחי טכנולוגיות זיהוי שלהם. הוכח כי הפרעות אדברסריות (Adversarial perturbations) יכולות לשפר את תמונות הדיפ פייק ולבלבל גלאים נפוצים, ולהפחית את דיוק הזיהוי ממעל 95% לפחות מ-27%. לעומת זאת, אמצעי נגד טכנולוגיים שנועדו להגן על גלאי דיפ פייק (Deepfake detectors) מפני ניסיונות מכוונים להערים עליהם (Deep Image Prior) הגיעו לדיוק של 95%–98% גם מול דיפ פייק שעוותו במטרה להטעות[52].
טכנולוגיה
[עריכת קוד מקור | עריכה]מבחינה טכנולוגית דיפ-פייק מבצעת סינתזת דימוי אנושי (אנ') מבוססת בינה מלאכותית. באמצעות סופראימפוזיציה וטכניקת למידת מכונה הידועה כרשת אדברסרית גנרטיבית (GAN)[53].
תוכנות Deepfake
[עריכת קוד מקור | עריכה]בינואר 2018, הושקה תוכנה קניינית (אנ') (להבדיל מתוכנה חופשית) בשם "FakeApp"[54]. האפליקציה מאפשרת למשתמשים ליצור ולשתף בקלות יחסית סרטוני וידאו עם פנים שהוחלפו. האפליקציה משתמשת ברשת עצבית מלאכותית, ודורשת מעבד גרפי ושטח אחסון של בין 3 ל-4 ג'יגה-בייט ליצירת וידאו מזויף. התוכנה זקוקה לחומר ויזואלי רב של האדם שאת פניו רוצים להכניס לווידאו המקורי כדי שאלגוריתם למידה עמוקה ילמד איזה היבטים בתמונה יש להחליף. התוכנה משתמשת בתשתית "TensorFlow" של גוגל.
באוגוסט 2018, חוקרים מאוניברסיטת קליפורניה בברקלי פרסמו מאמר שהציג אפליקציית ריקוד מזויף שיוצרת את הרושם של יכולות ריקוד מקצועי באמצעות בינה מלאכותית[55].
החל משנת 2019, "FakeApp" הוחלפה על ידי חלופות קוד פתוח דוגמת DeepFaceLab[56], FaceSwap[57] ו-myFakeApp[58].
חברות עסקיות גדולות החלו להשתמש בטכנולוגית דיפ פייק. חברת "Momo" הסינית יצרה את אפליקציית "Zao" שמאפשרת למשתמשיה לשתול את פניהם על קטעי טלוויזיה וקולנוע באמצעות תמונה אחת. האפליקציה זכתה לפרסום רב בספטמבר 2019, לאחר שמשתמש בטוויטר פרסם סרטון קצר שלו כלאונרדו דיקפריו. הסרטון הוויראלי נוצר תוך 8 שניות באמצעות האפליקציה[59].
זיוף קול
[עריכת קוד מקור | עריכה]במקביל לפיתוח תוכנות שמייצרות זיופים ויזואליים, פותחו גם תוכנות לעיבוד וזיוף קול.
בסוף שנת 2016, אדובי הכריזה על יצירת אב טיפוס לתוכנה חדשה בשם "VoCo" שתאפשר לקחת הקלטה של קול אנושי ולהוסיף לה בהקלדה מילים ומשפטים חדשים שיישמעו כאילו נאמרו על ידי הדובר המקורי. התוכנה זקוקה לדגימת קול בת 20 דקות[54].
סטארט-אפ קנדי בשם Lyrebird מפתח מוצר שיאפשר ליצור הקלטה מלאכותית על סמך דגימת קול בת 60 שניות[54].
בסוף 2017, חברת באידו הסינית הכריזה על פיתוח Deep Voice, מטקסט לדיבור בזמן אמת, תוכנה לשיבוט קול שזקוקה לדגימת קול מקורית בת שניות אחדות בלבד[54][60].
דיפ פייק במדינות
[עריכת קוד מקור | עריכה]ארצות הברית
[עריכת קוד מקור | עריכה]במרץ 2018 פיתחה חברת ASI Data Science (אנ') אלגוריתם עבור ועדה של ה-BBC שממיר טקסט כתוב לקול בקולו של טראמפ. בניסוי מקוון הוקראו בקול שישה משפטים על ידי האלגוריתם ועל ידי חקיינים של טראמפ, בהם אלק בולדווין וג'ון די דומניקו (אנ'). מתוך 267 משתתפים, 90% מצאו את הגרסה שנוצרה על ידי האלגוריתם כיותר משכנעת וקרובה למציאות מאשר דגימות הקול האנושיות של החקיינים[61].
באפריל 2018 יצרו הבמאי והקומיקאי ג'ורדן פיל ומנכ"ל באזפיד ג'ונה פרטי סימולציית דיפ-פייק של אובמה שבה הוא מסביר על הסכנה של פייק ניוז[62]. התשדיר הוויראלי נפתח במילים: "אנו נכנסים לעידן שבו האויבים שלנו יכולים לגרום לזה להיראות כאילו כל אחד אומר כל דבר בכל נקודה בזמן[63]. הסרטון נוצר באמצעות אפליקציית החלפת הפנים FakeApp ותוכנת אפטר אפקטס[64].
בספטמבר 2018 שלחו שלושה נציגים מבית הנבחרים של ארצות הברית מכתב לראש המודיעין הלאומי שבו ביקשו ממנו להעריך את האיום שדיפ-פייקים מהווים על הביטחון הלאומי של ארצות הברית. במכתב תיארו את הדיפ-פייק כזיוף דיגיטלי היפר-ריאליסטי והזהירו כי הטכנולוגיה יכולה להוביל לסחיטה ודיסאינפורמציה[4].
רוסיה ואוקראינה
[עריכת קוד מקור | עריכה]במלחמת רוסיה-אוקראינה תועד שימוש בדיפפייק שהציג את נשיא אוקראינה זלנסקי כביכול אומר לאזרחיו להיכנע לרוסיה, ודיפפייק של פוטין המכריז על ממשל צבאי.[47]
ארגנטינה
[עריכת קוד מקור | עריכה]בארגנטינה בשנת 2023 בקמפיין החירות השתמשו בדיפ פייק בקנה מידה גדול הן לקידום עצמי, כגון הצגת מועמד כמנהיג חזק, והן להכפשת יריבים, כגון הצגת מועמד כמטורף או כמי שמסביר כיצד עובד המסחר באיברים. שימוש המוני זה יצר "מרוץ חימוש" בתוכן AI והוביל לשחיקה באמון.[19]
סלובקיה
[עריכת קוד מקור | עריכה]בסלובקיה הופץ יומיים לפני הבחירות, דיפ פייק קולי שהופץ במהלך ימי שקט תקשורתי, שבו כביכול נשמע מועמד דן בתוכנית לזייף בחירות.[19]
הודו
[עריכת קוד מקור | עריכה]בהודו ראש הממשלה מודי השתמש בדיפ פייק של עצמו שר שירים פופולריים או נואם בשפות הודיות שונות כדי לחזק את תדמיתו ולהגיע לקהלים רחבים. בהודו גם הופצה הקלטת אודיו שבה נשמע מנהיג אופוזיציה מטיל האשמות בנוגע לעסקאות פיננסיות לא חוקיות במפלגתו. מנהיג זה הכחיש זאת ורמז שמדובר בדיפפייק קולי.[19]
ישראל
[עריכת קוד מקור | עריכה]תהילה שוורץ אלטשולר, חוקרת במכון הישראלי לדמוקרטיה, אמרה על תופעת הדיפ-פייק "אנחנו בעולם של פוסט אמת, נתקלים בהרבה דיסאינפורמציה, ולתכנים הללו יש נטייה להתפזר ברשתות החברתיות אפילו מהר יותר ממידע אמיתי" והוסיפה בהקשר של מערכות הבחירות בישראל "החשש הוא שניתן יהיה להטות את תוצאות הבחירות על ידי פרסום מידע לא נכון, מידע ערוך, ושזה ישפיע על דעת הקהל. [...] הטכנולוגיה הזאת מערערת את האמון שלנו כחברה בעצם היכולת שלנו לברר את המציאות"[51].
במרץ 2019 יצר המפתח הישראלי בר היללי מודל תלת-ממדי של בנימין נתניהו בשם "Synthesizing Bibi" (פרפרזה לתוכנית המחשב "Synthesizing Obama" משנת 2017)[65]. היללי הודיע כי אין בכוונתו לפרסם את הקוד בגלל "רגישויות של פרויקטים מהסוג הזה"[65].
בספטמבר 2019 שודר עימות טלוויזיוני מזויף בין מועמדים לראשות הממשלה בהנחיית ארז טל וישראל קטורזה בוועידת המשפיעים של חדשות ערוץ 12. העימות נוצר על ידי מפתחים מחברת "Canny AI" הישראלית; הוא משלב חקייני קול עם טכנולוגית דיפ-פייק שמייצרת מחדש את פני הפוליטיקאיים כך שיתאימו לקול המזויף[66].
בנובמבר 2019 נערך ראיון מזויף עם אביגדור ליברמן בתוכנית "מועדון לילה" באמצעות טכנולוגיית Deepfake[67].
בינואר 2021 איגוד האינטרט הישראלי והקליניקה למשפט, טכנולוגיה וסייבר באוניברסיטת חיפה פנו במשותף לוועדת הבחירות המרכזית בעניין דיפ פייק. הם הביעו דאגה עמוקה מהשימוש בטכנולוגיית דיפ פייק והפצת מידע כוזב במהלך הבחירות. הם פרטו את הסכנות הדמוקרטיות הטמונות בטכנולוגיה זו, שמקשה על זיהוי תוכן מזויף ועלולה להטעות את ציבור הבוחרים או לשבש את ההליך התקין של הבחירות. כמענה לאיום זה, הם הציעו "ארגז כלים" הכולל המלצות ספציפיות לוועדה, כגון הגברת מודעות ציבורית, הנחיית גופי תקשורת לסמן תוכן מזויף, ויצירת מנגנוני אכיפה מהירים מול פלטפורמות תוכן מקוונות. בנוסף, הם קראו לוועדה להסתייע בכלים פורנזיים טכנולוגיים על מנת להכריע באשר לאמינות תכנים העלולים להשפיע על הבחירות[68].
במהלך מלחמת חרבות ברזל, רשת ההשפעה האיראנית הפיצה סרטון של נתניהו שנוצר בטכנולוגיית דיפ-פייק, שהאשים את המפגינים ואת כוחות הביטחון בשיתוף פעולה עם חמאס. רשת זו הפיצה גם סרטון דיפ-פייק, שבו רבנים מוכרים לכאורה מאשימים את נתניהו במחדל 7 באוקטובר[69].
מסמך של איגוד האינטרנט הישראל ממאי 2025 התייחס להונאות פיננסיות שעושות שימוש בסרטוני דיפ-פייק של פוליטיקאים, אנשי ציבור וידוענים כדי להגביר את האמינות. לדוגמה סרטון המתחזה לראיון של פרופ’ אמיר ירון, נגיד בנק ישראל, הממליץ על מוצר פיננסי מזויף ומפנה למודעה, סרטוני דיפ פייק של נועה קירל, של רותם סלע ועוד.[27]
ראו גם
[עריכת קוד מקור | עריכה]קישורים חיצוניים
[עריכת קוד מקור | עריכה]- אושרית גן-אל, הכלי המפחיד שמאפשר לשתול את הפנים שלכם בכל סרטון, באתר גלובס, 1 בפברואר 2018
- אורי פסובסקי, הכל פייק: איך נראים החיים בעולם שבו אפשר לזייף הכל, כולל הצהרות ווידיאו של פוליטיקאים וסרטוני פורנו בכיכובכם, באתר כלכליסט, 30 במרץ 2018
- אושרית גן-אל, DeepFake: מי יעצור את הדור הבא של הסרטונים המזויפים, באתר גלובס, 9 באוקטובר 2018
- עדן יואל, כשזה עמוק, באתר מאקו, 16 באוגוסט 2019
- Deepfake - מה זה ואיך מזהים? - מידע לציבור באתר איגוד האינטרנט הישראלי
- דלית קן־דרור פלדמן, קרין נהון, ורדית אבידן ורן גלעד בכרך, זיוף, זיוף עמוק (Deep-Fake), חוק הסרטונים ועקרון הפרשנות המצמצמת: מה הדין?, המשפט כט, 2023
- לירן ענתבי, איום מזויף או אמיתי? דיפ-פייק והאתגרים לביטחון הלאומי, המכון למחקרי ביטחון לאומי, פברואר 2022
- פרטיות ואבטחת מידע בשימוש בטכנולוגיות Deepfake (זיוף עמוק), הרשות להגנת הפרטיות, משרד המשפטים, אוגוסט 2022
When AI Can Fake Reality, Who Can You Trust? | Sam Gregory | TED, סרטון בערוץ "TED", באתר יוטיוב (אורך: 12:05)
הערות שוליים
[עריכת קוד מקור | עריכה]- ↑ לראות ולא להאמין - מדריך מערך הסייבר הלאומי לזיהוי "דיפ פייק"
- 1 2 3 4 5 דיפ פייק והאתגרים לביטחון הלאומי, באתר המכון למחקרי ביטחון לאומי
- 1 2 Sarah Shawky El Mokadem, The Effect of Media Literacy on Misinformation and Deep Fake Video Detection, Arab Media & Society, Winter/Spring 2023///Winter/Spring2023, עמ' 115–138 doi: 10.70090/sm23emlm
- 1 2 3 4 5 אושרית גן-אל, DeepFake: מי יעצור את הדור הבא של הסרטונים המזויפים, באתר גלובס, 9 באוקטובר 2018
- ↑ עומר כביר, פייק ניוז, הדור הבא: האם תעצור הטכנולוגיה את הסרטונים המזויפים?, באתר כלכליסט, 28 ביולי 2019
- 1 2 עומר כביר, פייק ניוז, הדור הבא: האם תעצור הטכנולוגיה את הסרטונים המזויפים?, באתר כלכליסט, 28 ביולי 2019
- ↑ Bregler, Christoph; Covell, Michele; Slaney, Malcolm, Video Rewrite: driving visual speech with audio, ACM Digital Library, 1997 (באנגלית)
- ↑ Justus Thies, Michael Zollhöfer, Marc Stamminger, Christian Theobalt, Matthias Nießner, Face2Face: Real-Time Face Capture and Reenactment of RGB Videos, IEEE Xplore, יוני 2016 (באנגלית)
- ↑ Supasorn Suwajanakorn, Steven M. Seitz, Ira Kemelmacher-Shlizerman, Synthesizing Obama: learning lip sync from audio, ACM Digital Library, יולי 2017 (באנגלית)
- 1 2 3 Samantha Cole, We Are Truly Fucked: Everyone Is Making AI-Generated Fake Porn Now, Vice, 24 בינואר 2018 (באנגלית)
- ↑ Sam Haysom, People are using face-swapping tech to add Nicolas Cage to random movies and what is 2018, Mashable, 31 בינואר 2018 (באנגלית)
- ↑ Samantha Cole, AI-Assisted Fake Porn Is Here and We’re All Fucked, Vice, 11 בדצמבר 2017 (באנגלית)
- 1 2 Jay Hathaway, Here’s where ‘deepfakes,’ the fake celebrity porn, went after the Reddit ban, The Daily Dot, 8 בפברואר 2018 (באנגלית)
- ↑ r/SFWdeepfakes, רדיט (באנגלית)
- 1 2 איום מזויף או אמיתי? דיפ-פייק והאתגרים לביטחון הלאומי
- 1 2 Bobby Chesney, Danielle Citron, Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security, California Law Review 107, 2019-12, עמ' 1753–1819 doi: 10.15779/Z38RV0D15J
- 1 2 Samuel Greengard, Will Deepfakes Do Deep Damage?, Communications of the ACM 63, 2020-01, עמ' 17–19 doi: 10.1145/3371409
- ↑ Eva M. Janssen, Yarno F. Mutis, Tamara van Gog, Looks real, feels fake: conflict detection in deepfake videos, Thinking & Reasoning 31, 2025-05, עמ' 237–247 doi: 10.1080/13546783.2024.2391794
- 1 2 3 4 Mateusz Łabuz, Christopher Nehring, On the way to deep fake democracy? Deep fakes in election campaigns in 2023, European Political Science 23, 2024-12, עמ' 454–473 doi: 10.1057/s41304-024-00482-9
- ↑ iHLS News Desk, דיסאינפורמציה של AI - האיום הגדול ביותר על הכלכלה העולמית, באתר iHLS, 2024-01-11
- ↑ הרשתות החברתיות לא עוצרות הונאות דיפ-פייק, באתר העין השביעית, 2 באוקטובר 2025
- ↑ הגר בוחבוט, דיפ פייק: לכו תסבירו שזה לא וידאו שלכם, באתר ynet, 23 בנובמבר 2018
- ↑ תהילה שוורץ אלטשולר, עמיר כהנא, אדם, מכונה, מדינה: לקראת אסדרה של בינה מלאכותית, באתר המכון הישראלי לדמוקרטיה, 2023
- ↑ שקד דברן. אילת ברעם צברי., תופעות "הפוסט-אמת": הגדרות, השלכות ופתרונות חינוכיים., מוסד שמואל נאמן, 2023
- 1 2 Aaron Balick, [https://www.tandfonline.com/doi/full/10.1080/07351690.2023.2160190 Social Media, Identity, and Careful Culture: How Online Social Networks Limit Identity, Amplify Difference, and Diminish Social Cohesion], PSYCHOANALYTIC INQUIRY 43, 2023, עמ' 24-35
- ↑ Alice E. Marwick, Online Identity, A companion to new media dynamics, Wiley-Blackwell, 2013, עמ' 355-364
- 1 2 3 העוקץ האלגוריתמי: רשתות חברתיות ובינה מלאכותית כאמצעי להונאות פיננסיות
- ↑ הכותב=Jesse Damiani A Voice Deepfake Was Used To Scam A CEO Out Of $243,000, Forbes, 3 בספטמבר 2019 (באנגלית)
- ↑
עודד ירון, העתיד כבר כאן, וכולנו עלולים להיות כוכבי הפורנו הבאים, באתר הארץ, 1 בפברואר 2018 - ↑
עודד ירון, מולדת ה-Deepfakes אוסרת על פורנו מבוסס בינה מלאכותית, באתר הארץ, 8 בפברואר 2018 - ↑ אושרית גן-אל, "האינטרנט הוא חור עצום של אפלה": סקרלט ג'והנסון על סרטוני פורנו מזויפים מבוססי בינה מלאכותית, באתר גלובס, 1 בינואר 2019
- ↑ הגר בוחבוט, סקרלט ג'והנסון: אי אפשר להתגונן מפני דיפ פייק, באתר ynet, 2 בינואר 2019
- ↑ Dan Sabbagh, Sophia Ankel, Call for upskirting bill to include 'deepfake' pornography ban, The Guardian, 21 ביוני 2018 (באנגלית)
- ↑ Drew Harwell, Fake-porn videos are being weaponized to harass and humiliate women: ‘Everybody is a potential target’, The Washington Post, 30 בדצמבר 2018 (באנגלית)
- ↑ Samantha Cole, This Horrifying App Undresses a Photo of Any Woman With a Single Click, Vice (באנגלית)
- ↑ תהילה שוורץ אלטשולר, תא"ל (מיל) איתי ברון*, פייק ניוז: הדור הבא, באתר המכון הישראלי לדמוקרטיה, 14 ביולי 2019
- ↑ deepnudeapp, Here is the brief history, and the end of DeepNude, טוויטר, 27 ביוני 2019
- ↑ מצב הדיפייקס ב-2023
- ↑ דפני לידור תל פז, תמונות עירום מזויפות שמופצות ברשת הפכו לאימת הנערות בישראל, באתר "המקום הכי חם בגיהנום", 15 בפברואר 2024
- ↑ Singer, Natasha (2024-04-08). "Teen Girls Confront an Epidemic of Deepfake Nudes in Schools". The New York Times (באנגלית אמריקאית). ISSN 0362-4331.
- ↑
דיפ-פייק בבתי ספר: נערים מפיצים תמונות עירום מזויפות של בנות כיתתן, באתר TheMarker, 13 באפריל 2024 - ↑ עומר כביר, ההצלחה הרוסית עשתה את שלה: צבאות הבוטים בשירות הרודנים, באתר כלכליסט, 29 באוקטובר 2018
- ↑ התערבות זרה בבחירות בעולם: מאפיינים, מגמות ולקחים לישראל, באתר המכון למחקרי בטחון לאומי
- 1 2 עומר כביר, פייק ניוז, הדור הבא: האם תעצור הטכנולוגיה את הסרטונים המזויפים?, באתר כלכליסט, 28 ביולי 2019
- ↑ קליפורניה יוצאת נגד ה-Deep Fakes, חוקקה שני חוקים נגד התופעה, באתר כלכליסט, 7 באוקטובר 2019
- ↑ רשימת תוצאות: Will Deepfakes Do Deep Damage?: The Wikipedia Library., באתר eds.p.ebscohost.com
- 1 2 3 השימוש בבינה מלאכותית ליצירה והפצה של חדשות כזב
- 1 2 רשימת תוצאות: Will Deepfakes Do Deep Damage?: The Wikipedia Library., באתר eds.p.ebscohost.com
- ↑ David Axton, Truepic VS Deepfake; a War Against Fake News, TechNadu, 21 ביוני 2018 (באנגלית)
- 1 2 James Vincent, Deepfake detection algorithms will never be enough, The Verge, 27 ביוני 2019 (באנגלית)
- 1 2
נירית אנדרמן, זהירות, מתחזה דיגיטלי: האם טכנולוגיית "דיפ פייק" תשפיע על הבחירות בישראל, באתר הארץ, 25 בפברואר 2019 - ↑ Tomasz Walczyna, Zbigniew Piotrowski, Quick Overview of Face Swap Deep Fakes, Applied Sciences (2076-3417) 13, 2023-06, עמ' 6711 doi: 10.3390/app13116711
- ↑ Oscar Schwartz, You thought fake news was bad? Deep fakes are where truth goes to die, The Guardian, 12 בנובמבר 2018 (באנגלית)
- 1 2 3 4 אורי פסובסקי, הכל פייק: איך נראים החיים בעולם שבו אפשר לזייף הכל, כולל הצהרות וידיאו של פוליטיקאים וסרטוני פורנו בכיכובכם, באתר כלכליסט, 30 במרץ 2018
- ↑ רפאל קאהאן, פיתוח מגניב: בינה מלאכותית שהופכת אתכם לרקדנים מושלמים, באתר כלכליסט, 27 באוגוסט 2018
- ↑ DeepFaceLab, GitHub, יוני 2019 (באנגלית)
- ↑ faceswap, GitHub, יולי 2019 (באנגלית)
- ↑ MyFakeApp, Bitbucket, פברואר 2018 (באנגלית)
- ↑ Allan Xia, Best application of 'Deepfake'-style AI facial replacement I've ever seen, טוויטר, 1 בספטמבר 2019 (באנגלית)
- ↑ TechTalksTV, Deep Voice: Real-time Neural Text-to-Speech, vimeo, 31 באוקטובר 2017 (באנגלית)
- ↑ Ryan Browne, Anti-election meddling group makes A.I.-powered Trump impersonator to warn about ‘deepfakes’, CNBC, 7 בדצמבר 2018 (באנגלית)
- ↑ גיא לוי, כשאובמה קילל את טראמפ אל מול המצלמות, באתר ynet, 18 באפריל 2018
- ↑ Aja Romano, Jordan Peele’s simulated Obama PSA is a double-edged warning against fake news, Vox, 18 באפריל 2018 (באנגלית)
- ↑ אובמה קילל את טראמפ? ג'ורדן פיל מדגים כיצד מייצרים פייק ניוז, באתר כלכליסט, 18 באפריל 2018
- 1 2 עידן בן טובים, מפתח ישראלי יצר ”פייק ביבי”, וזה מרשים ומדאיג באותה מידה, באתר גיקטיים, 19 במרץ 2019
- ↑
עידן הדיפייק - כך נראה עימות מזוייף בין נתניהו לליברמן, סרטון בערוץ "חדשות 12", באתר יוטיוב (אורך: 3:35) - ↑ מועדון לילה, מה חשב אביגדור ליברמן על הראיון המזוייף ב"מועדון לילה"?, באתר מאקו, 6 בנובמבר 2019
- ↑ "פנייה משותפת לוועדת הבחירות המרכזית לכנסת ה-24 בעניין דיפ פייק". איגוד האינטרנט הישראלי.
- ↑ התערבות והשפעה זרה איראנית במהלך מלחמת חרבות ברזל, באתר המכון למחקרי ביטחון לאומי