נשק אוטונומי קטלני

מתוך ויקיפדיה, האנציקלופדיה החופשית
רחפן אוטונומי קטלני
גרירת לנד רובר דיפנדר סרבית עם רובוט קרבי נגרר מסוג "מילוס".
מערכת "חץ דורבן"
כיפת ברזל במהלך שיגור טיל מיירט

כלי נשק אוטונומיים קטלנייםאנגלית: Lethal autonomous weapons; הכינוי המקוצר LAWs או AWS) הם סוגי מערכות צבאית אוטונומיות שיכולות לחפש ולתקוף מטרות באופן עצמאי על סמך מערכת חוקים, אילוצים ותיאורים מתוכנתים (אלגוריתמים). מערכות הנשק האוטונומיות מוכרות בצבאות העולם בשמות מערכות נשק אוטונומיות קטלניות (Lethal Autonomous Weapon Systems-LAWS), או בשם מערכות נשק אוטונומיות (Autonomous Weapon Systems - AWS), שהם למעשה מערכות נשק רובוטי או רובוטים רוצחים. מערכות הנשק האוטונומיות עשויות לפעול באוויר, ביבשה, בים (מעל ומתחת למים) או בחלל. קיימת בעולם התנגדות למתן אוטונומיה מלאה למערכות נשק קטלניות שבכוחן להרוג בני אדם. נכון לשנת 2018 נעשה ניסיון לחבר אמנה להגבלת השימוש בנשק האוטונומי, במובן, שאת הפקודה האחרונה לתקוף ולפתוח באש ייתן אדם, מפעיל המערכת. אם כי ישנם מקרים יוצאים מן הכלל המיוחסים למערכות נשק "הגנתיות" הפותחות באש כנגד גורמים העוינים את סביבתן כגון כיפת ברזל, מעיל רוח, חץ דורבן ואחרים. זאת כדי לקצר את לוח הזמנים הקריטי של התגובה האנושית.

משמעות המושג נשק אוטונומי[עריכת קוד מקור | עריכה]

למילה "אוטונומי" יש משמעויות שונות בתחומים שונים. בהנדסת מכונות במלה אוטונומי מתייחסים ליכולת של המכונה לפעול ללא מעורבות אנושית. בפילוסופיה המשמעות להיות אוטונומי עשויה להתייחס לאדם שהוא עצמאי או חופשי מבחינה מוסרית. במדע המדינה המילה אוטונומי עשויה להתייחס ליכולת של אזור או מחוז להיות עצמאי מחוקי המדינה שלו ולהכתיב לעצמו חוקים משלו. מבחינת פיתוח מערכת נשק, ההתייחסות למערכת נשק כאוטונומית אינו ברור בהשוואה למקובל בתחומים האחרים.[1] מאחר שאין תקן מוגדר ומוסכם למושג נשק אוטונומי. הוא יכול להשתנות מאוד בין המדינות והארגונים השונים.

ישנן הגדרות רבות למושג נשק אוטונומי קטלני. נכון לשנת 2018 המדיניות הרשמית של משרד ההגנה של ארצות הברית בנושא אוטונומיה במערכות נשק, מגדירה מערכת נשק אוטונומית כ"מערכת נשק שלאחר הפעלתה או דריכתה, היא יכולה לבחור ולתקוף מטרות ללא התערבות נוספת של מפעיל אנושי".[2] הת'ר מ. רוף (Heather M. Roff), מבית הספר למשפטים של אוניברסיטת קייס וסטרן ריזרב (אנ'), מגדירה מערכות נשק אוטונומיות כ"מערכות נשק חמושות, המסוגלות ללמוד ולהתאים את 'תפקודן בתגובה לנסיבות המשתנות בסביבה שבה הן פרוסות', כמו כן הן מסוגלות לקבל החלטות ירי בעצמם".[3] הגדרה זו של מערכות נשק אוטונומיות היא ברף הגבוה בהשוואה להגדרות של חוקרים אחרים כמו פיטר אסארו ומארק גוברוד. לטענתם הגדרת נשק אוטונומי צריכה להיות: מערכת נשק הפועלת באופן חלקי או מלא ללא התערבות אנושית והיא לא חייבת להיות מסוגלת לקבל החלטות לגמרי לבד כדי להיקרא אוטונומית. בהגדרתם מספיק שמערכת הנשק תהיה מעורבת באופן פעיל בשלב אחד או מספר שלבים בתהליך השמדת המטרות. החל ברכישת המטרות (אנ') ועד לירי בסוף.[4][5]

ארגונים אחרים, לעומת זאת, מציבים את הסטנדרט של מערכת הנשק האוטונומית ברף גבוה יותר. משרד ההגנה הבריטי מגדיר מערכות נשק אוטונומיות כ"מערכות נשק שמסוגלות להבין ולתפוס ברמה גבוהה את סביבתן ולהיות מסוגלות לנקוט בפעולה מתאימה כדי להביא לתוצאה הרצויה. הן צריכות להיות מסוגלות להחליט על דרך פעולה, מתוך מספר חלופות, ללא תלות בפיקוח ובקרה אנושיים.[6]

כתוצאה מריבוי ההגדרות ובמטרה לכתוב אמנה בין המדינות יש צורך תחילה לקבוע מושגים מקובלים המגדירים מה הוא בדיוק נשק אוטונומי.[7]

מערכות הגנה אוטונומיות[עריכת קוד מקור | עריכה]

הנשק האוטונומי הקטלני הישן ביותר הוא מוקש היבשה, שהיה בשימוש כבר במאה ה-16 והמוקשים הימיים, שהוכנסו לשימוש במאה ה-17. מוקשים נגד אדם נאסרים לשימוש במדינות רבות על פי אמנת אוטווה משנת 1997, לא כולל את ארצות הברית, רוסיה וחלק גדול ממדינות אסיה והמזרח התיכון.

דוגמאות (נכון לשנת 2018) של מערכות נשק אוטונומיות קטלניות הן מערכות הגנה אקטיביות אוטומטיות מסוג "hardkill", כגון מערכות CIWS (אנ') מונחות מכ"ם המשמשות להגנה על ספינות היו בשימוש מאז שנות ה-70 של המאה העשרים (למשל, ה-Phalanx CIWS האמריקאי). מערכות כאלה יכולות לזהות ולתקוף באופן אוטונומי טילים מתקרבים, רקטות, ירי ארטילרי, מטוסים וכלי שיט השטים על פני הים וזאת, על פי קריטריונים שנקבעו על ידי המפעיל האנושי. מערכות דומות קיימות עבור טנקים, כמו הארנה הרוסית, המעיל רוח הישראלי וה-AMAP-ADS (אנ') הגרמנית. בדרום קוריאה ובישראל נעשה שימוש במספר סוגים של רובי זקיף (אנ') נייחים כגון רואה-יורה, שיכולים לירות לעבר בני אדם וכלי רכב. למערכות רבות של הגנה מפני טילים, כמו כיפת ברזל, יש גם יכולות הכוונה אוטונומיות.

הסיבה העיקרית לכך שאין "אדם בלולאה" במערכות הגנה האקטיביות היא הצורך בתגובה המהירה.

מערכות נשק אוטונומיות התקפיות[עריכת קוד מקור | עריכה]

המל"ט הסילוני מסוג טאראניס-BAE Systems Taranis בטיסה

מערכות בעלות דרגת אוטונומיה גבוהה יותר נכללות במל"טים או כלי טיס קרביים בלתי מאוישים, כגון המל"ט הסילוני מסוג טאראניס BAE Systems Taranis (אנ') העשוי לשאת מערכת תקיפה אווירית מסוג Future Combat Air System (אנ'). למל"טים יש את היכולה לחפש, לזהות ולאתר גופים עוינים באופן אוטונומי, אך תקיפת המטרה תעשה על פי פקודה המפורטת בפקודת המשימה. המל"ט יכול להגן על עצמו מפני מטוסי אויב (ראו קריאה נוספת - Heyns 2013, §45). מזל"ט מדגם Northrop Grumman X-47B יכול להמריא ולנחות על נושאות מטוסים (הודגם ב-2014).

לפי האקונומיסט, ככל שהטכנולוגיה מתקדמת, יישומים עתידיים של כלי שיט תת-ימיים בלתי מאוישים עשויים לכלול פינוי מוקשים, הנחת מוקשים, הנחת רשת חיישנים נגד צוללות במים שבמחלוקת, סיורים עם סונאר פעיל, אספקה מחדש של צוללות מאוישות.[8] בשנת 2018, נטען כי רוסיה מפתחת "טורפדו חדש בין-יבשתי, בעל חמוש גרעיני, מונע בכוח גרעיני, אוטונומי תת-ימי" בשם "פוסידון".[9]

רוסיה מפתחת באופן פעיל טילים בעלי בינה מלאכותית,[10] מל"טים,[11] כלי רכב בלתי מאוישים, רובוטים צבאיים ורובוטים להגשת עזרה רפואית.[12][13][14] [15]

השר הישראלי איוב קרא הצהיר ב-2017 כי ישראל מפתחת רובוטים צבאיים, כולל רובוטים זעירים, בגודל זבוב.[16]

באוקטובר 2018, בנאום של בכיר בחברת האבטחה הסינית Norinco, נאמר כי "בשטחי הקרבות העתידיים, לא יהיו אנשים שילחמו", וכי השימוש בנשק אוטונומי קטלני בלחימה, הוא "בִּלתִי נִמנַע".[17] בשנת 2019, שר ההגנה האמריקאי מארק אספר יצא כנגד סין על מכירת רחפנים המסוגלים לפגוע בבני אדם ללא פיקוח אנושי.[18] בשנת 2019 הצבא הבריטי פרס כלי רכב בלתי מאוישים ורובוטים צבאיים.[19] הצי האמריקאי פתח את ציי "רוח רפאים" של ספינות בלתי מאוישות.[20]

בשנת 2020 מזל"ט מסוג Kargu 2 (אנ') איתר ותקף מטרה אנושית בלוב, על פי דו"ח של פאנל המומחים של מועצת הביטחון של האו"ם בנושא לוב, שפורסם במרץ 2021. ייתכן שזו הייתה הפעם הראשונה שרובוט אוטונומי חמוש תקף בני אדם.[21][22]

סוגיות אתיות ומשפטיות[עריכת קוד מקור | עריכה]

התקן האמריקאי לנשק אוטונומי[עריכת קוד מקור | עריכה]

המדיניות הנוכחית של ארצות הברית קובעת: "שמערכות נשק אוטונומיות... יעוצבו כדי לאפשר למפקדים ולמפעילים להפעיל רמות מתאימות של שיפוט אנושי בשימוש בכוח."[23] עם זאת, המדיניות מחייבת שמערכות נשק אוטונומיות שהורגות בני אדם או המשתמשות בכוח קינטי, הבוחרות מטרות ללא התערבות אנושית נוספת, יהיו מאושרות ועומדות בתקנים ב"רמות המתאימות", במידה ולא מערכות נשק כאלה אסורות.[24] רובוטים, ציידים-רוצחים "חצי אוטונומיים" המזהים ותוקפים מטרות באופן אוטונומי אינם נדרשים להסמכה.[24] סגן שר ההגנה רוברט וורק אמר ב-2016 שמשרד ההגנה "לא יאציל סמכות קטלנית למכונה כדי לקבל החלטה", אך ייתכן שיהיה צורך לשקול זאת מחדש מכיוון ש"משטרים אוטוריטריים" עשויים לעשות שימוש בכלי נשק אוטונומיים.[25] באוקטובר 2016 הנשיא ברק אובמה הצהיר בתחילת הקריירה שלו, שהוא חושש מעתיד שבו נשיא ארצות הברית יעשה שימוש בכלי נשק אוטונומיים כגון מזל"טים יוכל "לקיים מלחמות תמידיות בכל רחבי העולם, כשהרבה מהן סמויות, ללא כל דין וחשבון או דיון דמוקרטי".[26][27] החל משנת 2018 בארצות הברית, הבינה המלאכותית הקשורה לביטחון הוכנסה לסמכותה של הוועדה לביטחון לאומי לבינה מלאכותית.[28][29] ב-31 באוקטובר 2019, מועצת החדשנות הביטחונית של משרד ההגנה של ארצות הברית פרסמה את טיוטת הדו"ח המתאר חמישה עקרונות לשימוש בבינה מלאכותית בנשק ומציעה 12 המלצות לשימוש אתי בבינה מלאכותית על ידי משרד ההגנה שיבטיחו שמפעיל אנושי יוכל תמיד לבדוק את 'הקופסה השחורה' ולהבין את תהליך שרשרת ההריגה kill-chain.[30]

הפרות אפשריות של אתיקה[עריכת קוד מקור | עריכה]

סטיוארט ראסל, פרופסור למדעי המחשב מאוניברסיטת קליפורניה בברקלי, הצהיר שהדאגה שיש לו מהשימוש במערכות נשק קטלניות אוטונומיות היא שהשימוש בהן הוא לא אתי ולא אנושי. הבעיה העיקרית שלו בשימוש במערכות הנשק האוטונומיות היא שקשה להן להבחין בין לוחמים לבלתי מעורבים.[31]

כלכלנים[32] וחוקרי משפט חוששים שמערכות הנשק האוטונומי יפרו את המשפט ההומניטארי הבינלאומי, במיוחד את עקרון ההבחנה, המחייב את היכולת להבחין בין לוחמים לבלתי מעורבים, ואת עקרון המידתיות, המחייב פגיעה פרופורציונלית באזרחים בשונה מפגיעה במטרות הצבאיות.[33] חשש זה מוזכר לעיתים קרובות כסיבה לאסור כליל על השימוש ב"רובוטים רוצחים". יש המטילים ספק, אם חשש שכזה יכול להוות טיעון כנגד מערכות הנשק האוטונומיות שאינם מפרות את המשפט ההומניטארי הבינלאומי.[34][35][36]

דו"ח משנת 2021 של שירות המחקר של הקונגרס האמריקני קובע כי "אין איסור משפטי מקומי או בינלאומי על פיתוח ושימוש במערכות נשק אוטונומיות", למרות ההתעסקות המתמשכת באמנת האו"ם, האמנה בדבר כלי נשק קונבנציונליים מסוימים (CCW).

יש אומרים שמערכות הנשק האוטונומיות מטשטשות את הגבולות שבו ניתן לקבוע מי אחראי להרג מסוים.[37][32] הפילוסוף רוברט ספארו טוען שנשק אוטונומי הוא אחראי סיבתי אך לא מוסרי, בדומה לילדים המשחקים בחיילים או בשוטרים וגנבים. טענתו, שבכל אחד מהמקרים, שיש סיכון לזוועות שיתרחשו ללא גוף מתאים הנושא באחריות, יש הפרה של דיני מלחמה.[38] תומאס סימפסון ווינסנט מולר טוענים שהם עשויים לותר על התיעוד של מי נתן איזו פקודה.[39] במקרים בהם השימוש בנשק האוטונומי נעשה בשדה הקרב שבו ברור שלא נמצאים בו בלתי מעורבים כגון בחלל או בים הפתוח הרחק מכל חוף בו לא עשויים להיות אזרחים בלתי מעורבים.

קמפיינים לאיסור נשק אוטונומי[עריכת קוד מקור | עריכה]

האפשרות של שימוש במערכות נשק קטלניות אוטונומיות, עוררה ויכוח משמעותי, במיוחד לגבי הסיכון ב"רובוטים רוצחים" שיסתובבו על פני כדור הארץ, בעתיד הקרוב או הרחוק. הקבוצה Campaign to Stop Killer Robots (אנ') הוקמה ב-2013. ביולי 2015, למעלה מ-1,000 מומחים לבינה מלאכותית חתמו על מכתב המזהיר מפני האיום במרוץ חימוש של בינה מלאכותית (אנ') הקורא לאסור על השימוש בנשק אוטונומי. המכתב הוצג בבואנוס איירס בוועידה המשותפת הבינלאומית ה-24 בנושא בינה מלאכותית (IJCAI-15) ונחתם על ידי סטיבן הוקינג, אילון מאסק, סטיב ווזניאק, נועם חומסקי, מייסד שותף של סקייפ ג'אן טאלין ו-Google DeepMind.[40][41]

לטענת ארגון PAX For Peace (אחד הארגונים המייסדים את הקמפיין לעצירת הרובוטים הרוצחים), כלי נשק אוטומטיים (FAWs) יגרמו לירידת סף היציאה למלחמה, ככל שהחיילים יורחקו משדה הקרב והציבור יורחק מלחוות מלחמה, דבר שייתן לפוליטיקאים ולמקבלי החלטות אחרים יותר מקום להחליט מתי וכיצד לצאת למלחמה.[42] הארגון מזהיר שלאחר התפשטות, מערכות הנשק האוטונומיות נאבד את השליטה הדמוקרטית במלחמות.[42]

קיימים אתרי מחאה אינטרנטיים כנגד התפתחות מערכות הנשק האוטונומיות המציגים את ההשלכות הבלתי רצויות שיגרמו אם יימשך המחקר על השימוש בבינה מלאכותית המיועדת לשימוש בכלי נשק. באתרים אלה, מתעדכנות חדשות על נושאים אתיים ומשפטיים על מנת שהמבקרים בהם יוכלו לקבל את העדכונים האחרונים אודות פגישות בינלאומיות ומאמרי מחקר הנוגעים למערכות הנשק האוטונומיות.[43]

הכס הקדוש קרא לקהילה הבינלאומית לאסור שימוש במערכות נשק אוטונומיות במספר הזדמנויות. בנובמבר 2018, הארכיבישוף איבן יורקוביץ' (אנ'), המשקיף הקבוע של הכס הקדוש לאומות המאוחדות, הצהיר ש"כדי למנוע את מרוץ החימוש והגברת אי השוויון וחוסר היציבות, לדבריו יש חובה הכרחית לפעול בהקדם: כי כעת הגיע הזמן לפעול כדי לעצור את מערכות הנשק האוטונומיות על מנת שלא יהפכו למציאות של המלחמות של מחר". הכנסייה חוששת שלמערכות הנשק הללו יש את היכולת לשנות באופן בלתי הפיך את אופי הלחימה, שתיצור מסוכנות אנושית שתעמיד בסימן שאלה את אנושיות החברות.[44]

נכון ל-29 במרץ 2019, רוב הממשלות המיוצגות באו"ם, שהשתתפו בדיון בנושא מערכות נשק אוטונומיות, העדיפו לאסור את השימוש במערכות אלה. רק מעט ממשלות, הכוללות את אוסטרליה, ישראל, רוסיה, בריטניה וארצות הברית, התנגדו לאיסור. ארצות הברית אף הצהירה שהנשק האוטונומי סייע במניעת הרג אזרחים.[45]

רגולציה במקום איסור[עריכת קוד מקור | עריכה]

גישה אחרת העוסקת במערכות הנשק האוטונומי, מתמקדת בהסדרת השימוש במערכות הנשק האוטונומיות במקום איסור השימוש בו.[46] בקרת הנשק האוטונומי הכולל בינה מלאכותית, תדרוש ככל הנראה מיסוד של נורמות בינלאומיות חדשות המגולמות במפרטים טכניים יעילים תוך שילוב של יכולת ניטור אקטיבי ודיפלומטיה לא פורמלית על ידי קהילות מומחים, יחד עם תהליך אימות משפטי ופוליטי.[47][48][49][50] בשנת 2021, משרד ההגנה של ארצות הברית ביקש לקיים דיאלוג עם הצבא הסיני אודות הנשק האוטונומי הנתמך בבינה מלאכותית אך נענה בסירוב.[51]

ראו גם[עריכת קוד מקור | עריכה]

לקריאה נוספת[עריכת קוד מקור | עריכה]

  • Heyns, Christof (2013), ‘Report of the Special Rapporteur on extrajudicial, summary or arbitrary executions’, UN General Assembly, Human Rights Council, 23 (3), A/HRC/23/47.
  • Krishnan, Armin (2009), Killer robots: Legality and ethicality of autonomous weapons (Aldershot: Ashgate)
  • Müller, Vincent C. (2016), ‘Autonomous killer robots are probably good news’, in Ezio Di Nucci and Filippo Santoni de Sio (eds.), Drones and responsibility: Legal, philosophical and socio-technical perspectives on the use of remotely controlled weapons, 67-81 (London: Ashgate).
  • Stuart Russell's campaign against LAWs
  • Sharkey, Noel E (2012), ‘Automating Warfare: lessons learned from the drones’, Journal of Law, Information & Science, 21 (2).
  • Simpson, Thomas W and Müller, Vincent C. (2016), ‘Just war and robots’ killings’, The Philosophical Quarterly 66 (263), 302–22.
  • Singer, Peter (2009), Wired for war: The robotics revolution and conflict in the 21st Century (New York: Penguin)
  • US Department of Defense (2012), ‘Directive 3000.09, Autonomy in weapon systems’. <2014 Killer Robots Policy Paper Final.docx>.
  • US Department of Defense (2013), ‘Unmanned Systems Integrated Road Map FY2013-2038’
  • The Ethics of Autonomous Weapons Systems (2014) Seminar at UPenn
  • Saxon, Dan (2022). Fighting Machines: Autonomous Weapons and Human Dignity (באנגלית). University of Pennsylvania Press. ISBN 978-0-8122-9818-5.

קישורים חיצוניים[עריכת קוד מקור | עריכה]

הערות שוליים[עריכת קוד מקור | עריכה]

  1. ^ Crootof, Rebecca (2015). "The Killer Robots Are Here: Legal and Policy Implications". 36 Cardozo L. Rev: 1837 – via heinonline.org.
  2. ^ Allen, Gregory. "DOD Is Updating Its Decade-Old Autonomous Weapons Policy, but Confusion Remains Widespread". Center for Strategic and International Studies. Center for Strategic and International Studies. נבדק ב-24 ביולי 2022. {{cite web}}: (עזרה)
  3. ^ Roff, Heather (2015). "Lethal Autonomous Weapons and Jus Ad Bellum Proportionality".
  4. ^ Asaro, Peter (2012). "On Banning Autonomous Weapon Systems: Human Rights, Automation, and the Dehumanization of Lethal Decision-Making". Red Cross. 687: 94.
  5. ^ "Autonomy without Mystery: Where do you draw the line?". 1.0 Human (באנגלית אמריקאית). 2014-05-09. נבדק ב-2018-06-08.
  6. ^ "Unmanned aircraft systems (JDP 0-30.2)". GOV.UK (באנגלית). נבדק ב-2018-06-08.
  7. ^ Krishnan, Armin (2016). Taylor & Francis Group. www.taylorfrancis.com (באנגלית). doi:10.4324/9781315591070. ISBN 9781317109129. נבדק ב-2018-06-08.
  8. ^ "Getting to grips with military robotics". The Economist. 25 בינואר 2018. נבדק ב-7 בפברואר 2018. {{cite news}}: (עזרה)
  9. ^ "US says Russia 'developing' undersea nuclear-armed torpedo". CNN. 3 בפברואר 2018. נבדק ב-7 בפברואר 2018. {{cite news}}: (עזרה)
  10. ^ "Russia is building a missile that can makes its own decisions". Newsweek. 20 ביולי 2017. {{cite web}}: (עזרה)
  11. ^ "Russia's digital doomsday weapons: Robots prepare for war - Russia Beyond". 2017-05-31.
  12. ^ "'Comrade in Arms': Russia is developing a freethinking war machine". 2017-08-09.
  13. ^ "Rise of the Machines: A look at Russia's latest combat robots". 2017-06-06.
  14. ^ "Is Terminator back? Russians make major advances in artificial intelligence". 10 בפברואר 2016. {{cite web}}: (עזרה)
  15. ^ Virtual trainer for robots and drones developed in Russia - Russia Beyond, web.archive.org, ‏2017-10-11
  16. ^ "Kara: I wasn't revealing state secrets about the robots". The Jerusalem Post.
  17. ^ Allen, Gregory. "Understanding China's AI Strategy". Center for a New American Security. Center for a New American Security. נבדק ב-11 במרץ 2019. {{cite web}}: (עזרה)
  18. ^ "Is China exporting killer robots to Mideast?". Asia Times. 28 בנובמבר 2019. נבדק ב-21 בדצמבר 2019. {{cite news}}: (עזרה)
  19. ^ "British Army to operationally deploy new robots in 2019 | March 2019 Global Defense Security army news industry | Defense Security global news industry army 2019 | Archive News year".
  20. ^ "US Navy plans to build an unmanned Ghost Fleet".
  21. ^ Hambling, David. "Drones may have attacked humans fully autonomously for the first time". New Scientist (באנגלית אמריקאית). נבדק ב-2021-05-30.
  22. ^ "Killer drone 'hunted down a human target' without being told to". New York Post (באנגלית אמריקאית). 2021-05-29. נבדק ב-2021-05-30.
  23. ^ US Department of Defense (2012). "Directive 3000.09, Autonomy in weapon systems" (PDF). p. 2. אורכב מ-המקור (PDF) ב-1 בדצמבר 2012. {{cite web}}: (עזרה)
  24. ^ 1 2 Gubrud, Mark (באפריל 2015). "Semi-autonomous and on their own: Killer robots in Plato's Cave". Bulletin of the Atomic Scientists. {{cite journal}}: (עזרה)
  25. ^ Lamothe, Dan (30 במרץ 2016). "Pentagon examining the 'killer robot' threat". Boston Globe. {{cite news}}: (עזרה)
  26. ^ Chait, Jonathan (2016-10-03). "Barack Obama on 5 Days That Shaped His Presidency". Daily Intelligencer. נבדק ב-3 בינואר 2017. {{cite web}}: (עזרה)
  27. ^ Devereaux, Ryan; Emmons, Alex (2016-10-03). "Obama Worries Future Presidents Will Wage Perpetual, Covert Drone War". The Intercept. נבדק ב-3 בינואר 2017. {{cite web}}: (עזרה)
  28. ^ Stefanik, Elise M. (2018-05-22). "H.R.5356 - 115th Congress (2017–2018): National Security Commission Artificial Intelligence Act of 2018". www.congress.gov. נבדק ב-2020-03-13.
  29. ^ Baum, Seth (2018-09-30). "Countering Superintelligence Misinformation". Information. 9 (10): 244. doi:10.3390/info9100244. ISSN 2078-2489.
  30. ^ United States. Defense Innovation Board. AI principles : recommendations on the ethical use of artificial intelligence by the Department of Defense. OCLC 1126650738.
  31. ^ Russell, Stuart (27 במאי 2015). "Take a stand on AI weapons". International Weekly Journal of Science. 521. {{cite journal}}: (עזרה)
  32. ^ 1 2 Coyne, Christopher; Alshamy, Yahya A. (2021-04-03). "Perverse Consequences of Lethal Autonomous Weapons Systems". Peace Review. 33 (2): 190–198. doi:10.1080/10402659.2021.1998747. ISSN 1040-2659.
  33. ^ Sharkey, Noel E. (ביוני 2012). "The evitability of autonomous robot warfare*". International Review of the Red Cross (באנגלית). 94 (886): 787–799. doi:10.1017/S1816383112000732. ISSN 1816-3831. {{cite journal}}: (עזרה)
  34. ^ Müller, Vincent C. (2016). Autonomous killer robots are probably good news. Ashgate. pp. 67–81.
  35. ^ Umbrello, Steven; Torres, Phil; De Bellis, Angelo F. (2020-03-01). "The future of war: could lethal autonomous weapons make conflict more ethical?". AI & Society (באנגלית). 35 (1): 273–282. doi:10.1007/s00146-019-00879-x. ISSN 1435-5655.
  36. ^ Umbrello, Steven; Wood, Nathan Gabriel (2021-04-20). "Autonomous Weapons Systems and the Contextual Nature of Hors de Combat Status". Information. 12 (5): 216. doi:10.3390/info12050216.
  37. ^ Wayback Machine, web.archive.org, ‏2017-01-07
  38. ^ SPARROW, ROBERT (2007). "Killer Robots". Journal of Applied Philosophy. 24 (1): 62–77. doi:10.1111/j.1468-5930.2007.00346.x. ISSN 0264-3758. JSTOR 24355087.
  39. ^ Simpson, Thomas W; Müller, Vincent C. (2016). "Just war and robots' killings". Philosophical Quarterly. 66 (263): 302–22. doi:10.1093/pq/pqv075.
  40. ^ Zakrzewski, Cat (2015-07-27). "Musk, Hawking Warn of Artificial Intelligence Weapons". WSJ Blogs - Digits. נבדק ב-2015-07-28.
  41. ^ Gibbs, Samuel (27 ביולי 2015). "Musk, Wozniak and Hawking urge ban on warfare AI and autonomous weapons". The Guardian. נבדק ב-28 ביולי 2015. {{cite news}}: (עזרה)
  42. ^ 1 2 "Deadly Decisions - 8 objections to killer robots" (PDF). p. 10. נבדק ב-2 בדצמבר 2016. {{cite web}}: (עזרה)
  43. ^ "Front page". Ban Lethal Autonomous Weapons (באנגלית אמריקאית). 2017-11-10. נבדק ב-2018-06-09.
  44. ^ "Holy See renews appeal to ban killer robots". Catholic News Agency. 28 בנובמבר 2018. נבדק ב-30 בנובמבר 2018. {{cite news}}: (עזרה)
  45. ^ Werkhäuser, Nina (27 באוגוסט 2018). "Should 'killer robots' be banned?". Deutsche Welle (DW). נבדק ב-31 בדצמבר 2021. {{cite news}}: (עזרה)
  46. ^ Bento, Lucas (2017). "No Mere Deodands: Human Responsibilities in the Use of Violent Intelligent Systems Under Public International Law". נבדק ב-2019-09-14. {{cite journal}}: Cite journal requires |journal= (עזרה)
  47. ^ Geist, Edward Moore (2016-08-15). "It's already too late to stop the AI arms race—We must manage it instead". Bulletin of the Atomic Scientists. 72 (5): 318–321. Bibcode:2016BuAtS..72e.318G. doi:10.1080/00963402.2016.1216672. ISSN 0096-3402.
  48. ^ Maas, Matthijs M. (2019-02-06). "How viable is international arms control for military artificial intelligence? Three lessons from nuclear weapons". Contemporary Security Policy. 40 (3): 285–311. doi:10.1080/13523260.2019.1576464. ISSN 1352-3260.
  49. ^ Ekelhof, Merel (2019). "Moving Beyond Semantics on Autonomous Weapons: Meaningful Human Control in Operation". Global Policy. 10 (3): 343–348. doi:10.1111/1758-5899.12665. ISSN 1758-5899.
  50. ^ Umbrello, Steven (2021-04-05). "Coupling levels of abstraction in understanding meaningful human control of autonomous weapons: a two-tiered approach". Ethics and Information Technology (באנגלית). 23 (3): 455–464. doi:10.1007/s10676-021-09588-w. ISSN 1572-8439.
  51. ^ Allen, Gregory C. (20 במאי 2022). "One Key Challenge for Diplomacy on AI: China's Military Does Not Want to Talk". Center for Strategic and International Studies (CSIS) (באנגלית). נבדק ב-2022-05-20. {{cite web}}: (עזרה)