אסדרת בינה מלאכותית

מתוך ויקיפדיה, האנציקלופדיה החופשית

אסדרה של בינה מלאכותית או רגולציה של בינה מלאכותית כוללת פיתוח מדיניות וחוקים לקידום והסדרת הפיתוח והשימוש בבינה מלאכותית. זהו חלק מאסדרה של אלגוריתמים באופן כללי.[1][2][3][4][5] תחום הרגולציה והמדיניות של בינה מלאכותית נחשב תחום מתפתח בתחומי שיפוט ברחבי העולם, בין היתר באיחוד האירופי[6] (שיש לו כוח רגולטורי שלטוני) ובגופים על-לאומיים כמו הארגון לשיתוף פעולה ופיתוח כלכלי (OECD), אגודת מהנדסי חשמל ואלקטרוניקה (IEEE) ואחרים.[7]

החל משנת 2016 ישנו גל פרסומים של הנחיות אתיקה של בינה מלאכותית על מנת לשמר יכולת שליטה חברתית על הטכנולוגיה.[8] האסדרה נחשבת הכרחית הן לעידוד בינה מלאכותית והן לניהול סיכונים נלווים. בנוסף לאסדרה, ארגונים העושים שימוש בבינה מלאכותית צריכים למלא תפקיד מרכזי ביצירה והנגשה של בינה מלאכותית בהתאם לעקרונות של בינה מלאכותית מהימנה ובטוחה[9] ולקחת אחריות כדי להפחית את הסיכונים.[10] לפי מדד AI בסטנפורד, המספר השנתי של חוקים הקשורים לבינה מלאכותית שהתקבלו ב-127 מדינות הסקר קפץ מאחד שעבר ב-2016 ל-37 שעברו ב-2022 בלבד.[11][12]

רקע היסטורי[עריכת קוד מקור | עריכה]

מומחים ותומכים בבינה מלאכותית אחראית, אתיקה בבינה מלאכותית, הגנת הצרכן וביטחון סייבר קוראים להקים מעקות בטיחות סביב פיתוח הבינה המלאכותית מאז שנות ה-60.[13] בשנת 2017, אילון מאסק קרא לרגולציה של פיתוח בינה מלאכותית. לפי NPR, מנכ"ל טסלה לא היה מרוצה מכך שהוא נאלץ לתמוך בפיקוח ממשלתי שעשוי להשפיע על תעשייתו, אך הוא סבר שהסיכונים שבהיעדר פיקוח כללי גבוהים מדי: "בדרך כלל, רגולציות מוקמות כאשר קורים דברים רעים, יש קריאות ציבור ולאחר שנים רבות מוקמת רשות רגולטורית שמפקחת על אותה תעשייה. זה לוקח הרבה זמן. זה בעבר היה רע אבל לא משהו שהציג סיכון יסודי לקיום הציוויליזציה".[14] בתגובה, חלק מהפוליטיקאים הביעו ספק בלבצע אסדרה על טכנולוגיה שעדיין בפיתוח.[15] בתגובה גם למאסק וגם להצעות מפברואר 2017 של חוקים אירופאים לאסדרה של בינה מלאכותית ורובוטיקה, בריאן קרזניץ, מנכ"ל אינטל, טען שהבינה המלאכותית עדיין בחיתולים ושזה מוקדם מדי לבצע אסדרה בטכנולוגיה.[16] חברות טכנולוגיה רבות מתנגדות לאסדרה קשה על בינה מלאכותית ו"על אף שחלק מהחברות אמרו שהן מברכות על כללים לגבי בינה מלאכותית, הן גם התנגדו לרגולציות קשות כמו אלו שנוצרות באירופה".[17] במקום לנסות לבצע אסדרה בטכנולוגיה עצמה, חלק מהאקדמאים הציעו לפתח נורמות משותפות כולל דרישות לבדיקות ושקיפות של אלגוריתמים, אולי בשילוב עם סוג של אזהרות לגבי מי שיפר זאת.[18]

בסקר של Ipsos משנת 2022, היחסים כלפי בינה מלאכותית השתנו מאוד בין מדינה למדינה; 78% מהסינים, אך רק 35% מהאמריקאים, הסכימו ש"מוצרים ושירותים המשתמשים בבינה מלאכותית מציעים יותר יתרונות מחסרונות"[11]. סקר של רויטרס/Ipsos משנת 2023 מצא ש-61% מהאמריקאים מסכימים, ו-22% לא מסכימים, שבינה מלאכותית מהווה סיכון לאנושות.[19] בסקר של פוקס ניוז משנת 2023, 35% מהאמריקאים חשבו שזה "חשוב מאוד", ו-41% נוספים חשבו שזה "די חשוב", שהממשל הפדרלי יבצע אסדרה בבינה מלאכותית, לעומת 13% שענו שזה "לא חשוב במיוחד" ו-8% שענו שזה "בכלל לא חשוב".[20][21]

גישות שונות לאסדרה (רגולציה)[עריכת קוד מקור | עריכה]

אסדרה של בינה מלאכותית תעשה על-ידי פיתוח חוקים ומדיניות ציבורית לקידום והסדרת השימוש בבינה מלאכותית,[22] אסדרה שכזו נחשבת הכרחית הן לעידוד בינה מלאכותית והן לניהול הסיכונים הנלווים.[23][24][25] שיקולי מנהל ציבורי ומדיניות מתמקדים בדרך כלל בהשלכות הטכניות והכלכליות ובמערכות בינה מלאכותית אמינות וממוקדות באדם,[26] אם כי גם רגולציה של אינטליגנציות-על מלאכותיות נחשבת.[27] הגישה הבסיסית לרגולציה מתמקדת בסיכונים ובהטיות של אלגוריתמים של למידת מכונה- ברמת נתוני הקלט, בדיקות האלגוריתמים ומודל קבלת ההחלטות, כמו גם ביכולת להסביר את הפלט המתקבל.[25]

גישה אחת לכונן אסדרה של בינה מלאכותי היא על ידי חקיקה,[28] הקושי הגדול של גישה זו נובע מהעובדה שהטכנולוגיה מתקדמת במהירות גדולה משמעותית מהיכולת של המחוקק ותהליכי החקיקה ״להדביק את הקצב״, מה שמוביל למערכת חוקים ותקנות מסורתית שאינה מעודכנת ואינה מקיפה דיה.[29] מנגד, גישה ״רכה״ יותר,[30] המתבססת על מדיניות, כללי אתיקה ופרשנות מאפשרת שינוי והתאמה בזמן קצר מה שעונה על הצרכים של טכנולוגיה מתפתחת ויישומים המבוססים עליה. עם זאת, החיסרון של הגישה הרכה הוא החוסר בפוטנציאל אכיפה.[31][32]

גישה נוספת, היא מינוף זכויות קניין רוחני (כלומר, רישוי copyleft) באובייקטים מסוימים של בינה מלאכותית והאצלת זכויות אכיפה לגורמי אכיפה ייעודיים ממשלתיים או אחרים. למשל, זכויות קניין רוחני על המודלים עצמם או מערכי המידע (דאטה-סט) בעזרתם הם אומנו. לפי גישה זו השימוש בבינה מלאכותית יהיה כפוף לרישיון בתנאים הדורשים הקפדה על כללי אתיקה וקודים התנהגותיים המוגדרים מראש.[33]

בנובמבר 2021 במאמר שפורסם בוול סטריט ז׳ורנל קראו הנרי קיסינג'ר, אריק שמידט ודניאל האטנלוצ'ר הצהרה משותפת בשם "להיות אנושי בעידן של בינה מלאכותית", הקוראת לוועדה ממשלתית לאסדרה של בינה מלאכותית.[34]

אסדרה של בינה מלאכותית בעולם[עריכת קוד מקור | עריכה]

בראייה גלובלית[עריכת קוד מקור | עריכה]

הרעיון של מועצת ממשל גלובלית להסדרת פיתוח בינה מלאכותית הועלה לפחות כבר ב-2017.[35] בדצמבר 2018, קנדה וצרפת הכריזו על תוכניות לפאנל בינלאומי בנושא בינה מלאכותית בתמיכת G7, לפי מודל של הפאנל הבינלאומי לשינויי אקלים, כדי לחקור את ההשפעות העולמיות של בינה מלאכותית על אנשים וכלכלות וכדי לכוון את פיתוח הבינה המלאכותית.[36] בשנת 2019 שונה שם הפאנל לשותפות הגלובלית בנושא בינה מלאכותית.[37][38]

השותפות הגלובלית לבינה מלאכותית (GPAI) הושקה ביוני 2020, והצהירה על צורך בפיתוח בינה מלאכותית בהתאם לזכויות אדם ולערכים דמוקרטיים, כדי להבטיח את אמון הציבור בטכנולוגיה[39]. 15 החברים המייסדים של השותפות העולמית לבינה מלאכותית הם אוסטרליה, קנדה, האיחוד האירופי, צרפת, גרמניה, הודו, איטליה, יפן, קוריאה, מקסיקו, ניו זילנד, סינגפור, סלובניה, ארצות הברית ובריטניה.

בשנת 2023, ל-GPAI יש 29 חברים.[40] מזכירות GPAI מתארחת על ידי ה-OECD בפריז, צרפת. המנדט של GPAI מכסה ארבעה נושאים, בינה מלכותית אחראית, ממשל נתונים (data governance), עתיד שוק העבודה, וחדשנות ומסחור. בנוסף GPAI גם חקרה כיצד ניתן למנף בינה מלאכותית כדי להגיב למגפת הקורונה.[39]

יוזמה של איגוד הטלקומוניקציה הבינלאומי (ITU) בשיתוף עם 40 סוכנויות אחיות של האו"ם, AI for Good[41] היא פלטפורמה גלובלית שמטרתה לזהות יישומים מעשיים של AI לקידום יעדי הפיתוח בר-קיימא של האו"ם ולהרחיב את הפתרונות הללו להשפעה גלובלית. זוהי פלטפורמה מכוונת פעולה, גלובלית ומכילה של האומות המאוחדות המטפחת פיתוח של בינה מלאכותית להשפעה חיובית על בריאות, אקלים, מגדר, שגשוג כולל, תשתית בת קיימא וסדרי עדיפויות פיתוח גלובליים אחרים.

צפוי שגם מדינות יתחילו להשתמש בבינה מלאכותית ככלי להגנת סייבר לאומית. לכן, אנשי אקדמיה קוראים למדינות לקבוע תקנות לשימוש בבינה מלאכותית, בדומה לאופן שבו יש תקנות לתעשיות צבאיות אחרות.[42]

ברמת המדינה, מדינות שונות התייחסו לבעיה בדרכים שונות. לגבי שלוש הכלכלות הגדולות, נאמר כי "ארצות הברית נוקטת בגישה מונעת שוק, סין מקדמת גישה מונעת על ידי מדינה, והאיחוד האירופי נוקט בגישה מונעת זכויות".[43]

ארצות הברית[עריכת קוד מקור | עריכה]

בארצות הברית אמנם אין מסגרת פדרלית מקיפה לרגולציה של בינה מלאכותית, אך ישנם מאמצים ברמה הפדרלית והמדינה לטפל בסיכונים ספציפיים ובחששות אתיים הקשורים לבינה מלאכותית. מאמצים מוקדמים עוד בתקופת ממשל אובמה התמקדו בסיכונים ובתקנות של בינה מלאכותית בשנת 2016.[44] הדו"ח הראשי הראשון היה התוכנית הלאומית למחקר ופיתוח אסטרטגיים לבינה מלאכותית ב-2018.[45]

בשנת 2019 פרסם הבית הלבן טיוטת הנחיה להסדרה של יישומי בינה מלאכותית והוקמה הוועדה לביטחון לאומי לבינה מלאכותית (NSCAI) "כדי לשקול את השיטות והאמצעים הדרושים לקידום פיתוח הבינה המלאכותית, למידת מכונה וטכנולוגיות נלוות כדי לתת מענה מקיף לצורכי הביטחון הלאומי וההגנה של ארצות הברית". הנשיא ביידן חתם על צו ביצוע בנושא בינה מלאכותית בטוחה, מאובטחת ומהימנה בשנת 2023.[46]

ברמת המדינה ישנם מאמצים להסדרת השימוש בבינה מלאכותית, עיריית ניו יורק חוקקה את חוק ביקורת ההטיה בשנת 2021 כדי לטפל בהטיה אלגוריתמית בגיוס עובדים.[47] טנסי חוקקה את חוק ELVIS בשנת 2024 כדי להסדיר זיופים עמוקים ושיבוט קול.[48][49]

כמו כן ישנם מאמצים של סוכנויות ספציפיות בתחום אחריותן. לדוגמה מינהל המזון והתרופות המסדיר את השימוש בבינה מלאכותית בהדמיה רפואית[50][51] או המכון הלאומי לתקנים וטכנולוגיה שפרסם נייר עמדה על רגולציה של בינה מלאכותית.[52]

בנוסף, מתוך הגישה מונעת שוק, ישנן יוזמות והתחייבויות וולונטריות של חברות טכנולוגיה להבטיח ניהול סיכונים של שימוש בלתי אחראי בבינה מלאכותית. ביולי 2023, ממשל ביידן-האריס השיג התחייבויות וולונטריות משבע חברות - אמזון, אנתרופיק, גוגל, אינפלקשן, מטא, מיקרוסופט ו-OpenAI - לנהל את הסיכונים הקשורים לבינה מלאכותית. החברות התחייבו להבטיח שמוצרי בינה מלאכותית יעברו בדיקות אבטחה פנימיות וחיצוניות לפני פרסום פומבי; לשתף מידע על ניהול סיכוני בינה מלאכותית עם התעשייה, ממשלות, החברה האזרחית והאקדמיה; לתת עדיפות לאבטחת סייבר ולהגן על רכיבי מערכת בינה מלאכותית קניינית; לפתח מנגנונים ליידע את המשתמשים כאשר תוכן נוצר בינה מלאכותית, כגון סימון מים; לדווח בפומבי על היכולות, המגבלות ותחומי השימוש של מערכות ה-AI שלהם; לתת עדיפות למחקר על סיכונים חברתיים הנשקפים מ-AI, כולל הטיה, אפליה ודאגות לפרטיות; ולפתח מערכות בינה מלאכותית כדי להתמודד עם אתגרים חברתיים, החל ממניעת סרטן ועד להפחתת שינויי אקלים. בספטמבר 2023, שמונה חברות נוספות - Adobe, Cohere, IBM, Nvidia, Palantir, Salesforce, Scale AI ו-Stability AI - חתמו אף הן על התחייבויות וולונטריות אלה.[53][54]

ב 30 באוקטובר 2023 חתם נשיא ארה"ב ג'ו ביידן על צו נשיאותי הכולל רגולציות פדרליות ראשונות לפיקוח על מערכות בינה מלאכותית. הצו כולל דרישות לפיהן מוצרי בינה מלאכותית ייבדקו כדי להבטיח שלא ניתן יהיה להשתמש בהם לפיתוח כלי נשק ביולוגיים או גרעיניים. הרגולציות כוללות גם המלצות, שתוצרי מדיה כגון תמונות, סרטונים וקבצי קול, שמפותחים על ידי מערכות בינה מלאכותית, יסומנו בתווית, שתבהיר שהם נוצרו על ידי בינה מלאכותית. הרגולציה נועדה להקשות על שימוש בכלי בינה מלאכותית ליצירה של "דיפ פייק" והפצת מידע שקרי שעלול להיראות אמין, למשל כדי לשבש מערכות בחירות במדינות דמוקרטיות.[55]

האיחוד האירופי[עריכת קוד מקור | עריכה]

האיחוד האירופי הוא אחד מתחומי השיפוט הגדולים בעולם והוא ממלא תפקיד פעיל ברגולציה העולמית של טכנולוגיה דיגיטלית באמצעות GDPR‏,[56][57]‏ Digital Services Act (אנ')‏ ו-Digital Markets Act (אנ')[58] חוק הבינה המלאכותית נחשב בשנת 2023 לרגולציה מרחיקת הלכת של AI ברחבי העולם.[59][60]

לרוב מדינות האיחוד האירופי (EU) יש אסטרטגיות לאומיות משלהן להסדרת בינה מלאכותית, אך הן מתכנסות במידה רבה.[61] האיחוד האירופי מונחה על ידי אסטרטגיה אירופית בנושא בינה מלאכותית,[62] הנתמכת על ידי קבוצת מומחים לבינה מלאכותית.[93] [94] באפריל 2019, הנציבות האירופית פרסמה את הנחיות האתיקה שלה לבינה מלאכותית מהימנה (AI),[9] בעקבות זאת עם המדיניות והמלצות ההשקעה שלה לבינה מלאכותית מהימנה ביוני 2019.[63] קבוצת המומחים של נציבות האיחוד האירופי בנושא בינה מלאכותית מבצעת עבודה על מהימנות של בינה מלאכותית, והנציבות פרסמה דוחות על היבטי הבטיחות והאחריות של AI ועל האתיקה של כלי רכב אוטומטיים.

בפברואר 2020 פרסמה הנציבות האירופית מאמר (whitepaper) על בינה מלאכותית[64][65][66] המתאר את גישת "אקוסיסטמה של מצוינות" ו"אקוסיסטמה של אמון", האחרון התמקד במסגרת רגולטורית עתידית עבור בינה מלאכותית, במיוחד עבור יישומים בסיכון גבוה בתחומים כמו בריאות, תחבורה ואנרגיה. יישומים אלה יהיו כפופים לדרישות לגבי נתוני הכשרה, שמירה על תיעוד, אספקת מידע, חוסן, דיוק ופיקוח אנושי.

טיוטת הרגולציה הודלפה באפריל 2021,[67] ואחריה ההצעה הרשמית במאי 2021. חוק הבינה המלאכותית הסופי (Artificial Intelligence Act) אומץ ביוני 2023.[68] הוא מתבסס על הגישה מבוססת הסיכון, ומגדיר ארבע קטגוריות סיכון: מינימלי, מוגבל, גבוה ובלתי מקובל.[69]

החוק ספג ביקורת על הגדרותיו הלא ברורות והשלכות שליליות אפשריות על קבוצות פגיעות. עם זאת, הוא צפוי להיכנס לתוקף בסוף 2025 או בתחילת 2026,[70] ויביא תקנות על פיתוח, פריסה ושימוש בבינה מלאכותית ברחבי האיחוד האירופי. החוק אוסר באופן כללי את השימוש בזיהוי רגשות ובזיהוי ביומטרי, עם חריגים צרים לאכיפת החוק.[71]

סין[עריכת קוד מקור | עריכה]

רגולציה על בינה מלאכותית בסין נשלטת בעיקר על ידי החלטת מועצת המדינה של הרפובליקה העממית של סין מ-8 ביולי 2017 "תוכנית פיתוח בינה מלאכותית של הדור הבא" (מסמך מועצת המדינה מס' 35), שבה הוועד המרכזי של המפלגה הסינית הקומוניסטית ומועצת המדינה של סין דחקו בגופים המנהלים של סין לקדם את הפיתוח של בינה מלאכותית עד 2030. הרגולציה של נושאי התמיכה האתית והמשפטית לפיתוח בינה מלאכותית מואצת, והמדיניות מבטיחה שליטה של המדינה בחברות סיניות על נתונים יקרי ערך, כולל אחסון נתונים על משתמשים סיניים בתוך המדינה ושימוש חובה בסטנדרטים הלאומיים של הרפובליקה העממית של סין עבור בינה מלאכותית, כולל על ביג דאטה, מחשוב ענן ותוכנות תעשייתיות.[72][73][74] בשנת 2021, סין פרסמה קווים מנחים אתיים לשימוש בבינה מלאכותית בסין, הקובעת כי על החוקרים להבטיח שהבינה המלאכותית עומדת בערכים אנושיים משותפים, נמצאת תמיד בשליטה אנושית ואינה מסכנת את ביטחון הציבור. בשנת 2023, סין הציגה אמצעי ביניים לניהול שירותי בינה מלאכותית.[75]

מדינות נוספות אחרות[עריכת קוד מקור | עריכה]

נוף הרגולציה והמדיניות של בינה מלאכותית הוא נושא מתפתח בתחומי שיפוט אזוריים ולאומיים ברחבי העולם. באוסטרליה, ברזיל, קנדה, גרמניה, איטליה, ספרד ובריטניה עשו הממשלות מאמצים להסדיר ולשלוט בשימוש בבינה מלאכותית. בעוד שהפרטים הספציפיים של הגישה של כל מדינה לבינה מלאכותית עשויים להשתנות כולן נוקטות בצעדים מעשיים כדי לקדם שימוש אחראי ומועיל בבינה מלאכותית.

חלק מהצעדים הספציפיים שמדינות אלו נקטו כוללים: יצירת קווים מנחים אתיים עבור בינה מלאכותית המבטיחים שימוש בבינה מלאכותית בצורה אחראית ואתית, אסדרה של בינה מלאכותית ופיתוח חוקים ותקנות כדי להבטיח שימוש בטוח ויעיל בבינה מלאכותית. טיפול בהשפעה החברתית והכלכלית הפוטנציאלית של בינה מלאכותית, ומתכוננות לדרכים שבהן בינה מלאכותית עשויה לשנות את החברה והכלכלה בעתיד.

בישראל[עריכת קוד מקור | עריכה]

בעידן הדיגיטלי, ישראל מתמודדת עם אתגרים רגולטוריים מורכבים הקשורים לפיתוח ושימוש בבינה מלאכותית. השינויים הטכנולוגיים מחייבים התאמות במשפט וברגולציה, תהליך שאינו פשוט ודורש גם חקיקה חדשה וגם פרשנות מחודשת לחוקים קיימים.

מערכת המשפט והתמודדותה עם קצב ההתפתחות הטכנולוגית[עריכת קוד מקור | עריכה]

במהלך העשורים האחרונים, המערכת המשפטית בישראל פועלת להתאים את עצמה לקצב המהיר של הטכנולוגיה. השופט סולברג עמד על הקושי הזה בבירור בפרשת איגוד האינטרנט הישראלי, כאשר אמר:

"בידוע, כי המשפט מדדה בעצלתיים אחר חידושי העולם, וכי החקיקה אינה מדביקה את קצב התקדמות המדע ויׂשּומיו. מפרי -החוק מסתגלים לקידמה מהר יותר מאוכפיו. זו אקסיומה. לראשונים אין עּכבות; לאחרונים יש. שנים רבות חלפו מעת המצאת המחשב ועד לחקיקת חוק המחשבים, התשנ"ה- .1995 לא חלפו אז דור או שניים במונחי מחשב, והחוק כבר נמצא מיושן, כי המחוקק לא צפה – ולא יכול לצפות – את חידושי הטכנולוגיה. אך לא רק עולם המשפט עומד נבוך. גם מדע הפסיכולוגיה נתקל בתופעות חדשות של התמכרות ופגיעות בנפש, ומנסה ללמוד דרכי התמודדות עדכניות 'תוך כדי תנועה'; כך גם הסוציולוגיה, ושאר ענפים מתחום מדעי החברה, הטבע והרוח. אין תימה אפוא שגם עולם המשפט איננו ערוך עדיין עם מלוא הכלים העומדים לרשותו. אין לכחד: הסדרה חוקית של הנעשה במרחב הווירטואלי היא מורכבת ומסובכת. קשה להגדיר את הדין הרצוי, וגם לא בנקל ניתן להחיל את הדין המצוי. לא בכדי יש שהגיעו למסקנה כי מדובר בתחום שראוי להסדרה חוקית; יש הסבורים כי הפסיקה היא המסגרת הראויה לעשיית ההתאמות הנדרשות לעידן האינטרנט; ואלה ואלה מתלבטים גם לגבי מידת השיתוף של קהילת משתמשי האינטרנט בעיצוב הכללים במרחב הווירטואלי וביישומם".[76]

הדין והאסדרה בהיבטי בינה מלאכותית[עריכת קוד מקור | עריכה]

כמו בעולם גם בישראל פרסם משרד החדשנות המדע והטכנולוגיה בשיתוף עם משרד המשפטים מסמך עקרונות מדיניות רגולציה ואתיקה.[77] המסמך פורסם בדצמבר 2023 לאחר כשנה של איסוף ובחינה של הערות הציבור והוא מהווה מסמך סופי המציע את מדיניות הרגולציה והאתיקה של ממשלת ישראל בתחום הבינה המלאכותית.

מסמך העקרונות מציע לאמץ עקרונות אתיים משותפים עבור תחום הבינה המלאכותית בישראל, על בסיס עקרונות ה-OECD בהתאמות שונות, וזאת בשים לב לתפיסה הכוללת שלפיה יש לפעול ככלל בהתאם למדיניות המקובלת במדינות המפותחות בעולם. העקרונות האתיים המוצעים הם:

  1. בינה מלאכותית לקידום צמיחה, פיתוח בר קיימא ומובילות ישראלית בחדשנות
  2. האדם במרכז: כיבוד זכויות יסוד ואינטרסים ציבוריים
  3. שוויון ומניעת אפליה פסולה
  4. שקיפות והסברתיות
  5. אמינות, עמידות, אבטחה ובטיחות
  6. אחריותיות

עקרונות אלה משקפים היבטים בהם ראוי להתחשב במסגרת פיתוח ושימוש בבינה מלאכותית ובעת קביעת אסדרה בתחום זה.

דיני זכויות יוצרים[עריכת קוד מקור | עריכה]

חוק זכות יוצרים בישראל מתמודד עם אתגרים חדשים שנובעים מהשימוש בבינה מלאכותית, כאשר נדרשים פתרונות לשאלות של גישה לנתונים ושימוש בהם ללא הפרת זכויות. בהקשר של בינה מלאכותית, דיני זכויות יוצרים בישראל נוגעים לאופן שבו ניתן להשתמש בתכנים לאימון מערכות מלאכותיות. איכות מערכת הבינה המלאכותית תלויה באיכות ובגיוון הנתונים המוזנים אליה. תכנים לא מוגנים יכולים לשמש באופן חופשי, אך לעיתים קרובות יש צורך להשתמש גם בתכנים מוגנים בזכויות יוצרים, דבר שעשוי ליצור מכשול משפטי. בנובמבר 2022, משרד המשפטים - מחלקת ייעוץ וחקיקה (אזרחית, אשכול קניין רוחני) - פרסם חוות דעת המפרטת את הגבולות המשפטיים לשימוש בחומרים מוגנים והכוונות להתמודדות עם האתגרים המתעוררים.[78] חוות הדעת קובעת כי שימוש בתכנים מוגנים לאימון בינה מלאכותית, מלבד מקרים חריגים, חוסה תחת הסדרי השימושים המותרים בדיני זכויות היוצרים ולכן אינו מהווה הפרה של זכויות יוצרים. ראשית, שימוש בתכנים מוגנים לשם אימון מכונה יהווה לרוב שימוש הוגן.[79] שנית, בחלק ממיזמי למידת המכונה, יחול סעיף 22 לחוק זכות יוצרים, העוסק בשימוש אגבי ביצירה. שלישית, ככל שהנתונים המשמשים ללמידה נמחקים בתום התהליך, יחול גם סעיף 26 לחוק זכות יוצרים בדבר יצירה ארעית. מסקנה זו מתיישבת גם עם המגמה הגלובלית בדין החל על הסוגיה של אימון מכונה.

בישראל, כמו במרבית המדינות, טרם הוסדרה סוגיית הגנת זכויות יוצרים על יצירות שנוצרו באמצעות בינה מלאכותית, ורק מדינות אחדות, בריטניה לדוגמה, הסדירו סוגיות של תוכן שיוצר על ידי מחשב (computer generated content). הנטייה במדינות שבהן הפסיקה התייחסה לשאלה האם ניתן לייחס זכות יוצרים (וזכויות קניין רוחני באופן כללי) לבינה מלאכותית, היא לא להכיר בהגנת זכויות יוצרים על יצירות שנוצרו (לחלוטין) באמצעות בינה מלאכותית. במהלך 2023 נפסק בארצות הברית שהתנאי להענקת זכות יוצרים הוא קיומו של יוצר אנושי.[80]

דיני פרטיות[עריכת קוד מקור | עריכה]

בישראל, סעיף 7 לחוק יסוד: כבוד האדם וחירותו מקנה לזכות לפרטיות מעמד של זכות יסוד. חוק הגנת הפרטיות מ-1981 מגדיר עוולות ועבירות הקשורות בפגיעה בפרטיות, וקובע כללים לאיסוף ועיבוד מידע אישי. בהקשר של בינה מלאכותית, נדרשת הסכמה מדעת לפגיעה בפרטיות או לשימוש במידע אישי, וכל שימוש חייב להיות מוגבל למטרה שלשמה נאסף המידע.[81]

ביולי 2022 פרסמה הרשות להגנת הפרטיות במשרד המשפטים מסמך ״חובת יידוע במסגרת איסוף ושימוש במידע אישי״[82] המציג את עמדת הרשות בנושא חובת היידוע במסגרת איסוף ושימוש במידע אישי. המסמך מציג את פרשנות הרשות לסעיף 11 בחוק הגנת הפרטיות ברמה הכללית, תוך התייחסות לחובת יידוע במסגרת הליך קבלת הסכמה וליידוע במסגרת שימוש במערכות לקבלת החלטות מבוססות אלגוריתם או בינה מלאכותית, ההוראות מבהירות כי על גורמים האוספים מידע אישי מאדם מוטלת החובה ליידע על אודות האיסוף, לספק הסברים על אודות מטרות השימוש, המקורות מהם הוא מגיע ולמי יימסר המידע. כמו כן, קיימת הדרישה להבטחת אבטחת מידע במאגרים והזכות לעיין, לתקן או למחוק מידע במקרים מסוימים. כל אלו נדרשים להתאמה גם בהקשר של שימוש בבינה מלאכותית, כדי לשמור על עקביות עם ההוראות הרגולטוריות והחוקיות הקיימות[77]

במסגרת חובת יידוע במערכות לאיסוף מידע וקבלת החלטות כנ״ל, מכיוון שאופן פעולתן של המערכות האמורות הוא מורכב ומשתנה, ומשכך עשוי להיות לא שקוף לציבור ולעיתים אף לגורמים המתכנתים את המערכות האמורות. לפיכך חובת יידוע בשלב איסוף המידע גם על גורמים האוספים מידע אישי באמצעות מערכות מבוססות בינה מלאכותית.[82]

אפליה אסורה[עריכת קוד מקור | עריכה]

בישראל, המשפט האזרחי כולל חקיקה נגד אפליה הכוללת תחומים שונים כמו חוק שוויון הזדמנויות בעבודה (1988) ואיסור הפליה במוצרים ושירותים (2000). חוקים אלו מטילים על גופים פרטיים ומדינתיים חובת פעולה ללא אפליה ומעבירים את הנטל להוכיח את חפותם במקרה של תוצאה מפלה בתביעה אזרחית. כאשר בינה מלאכותית מובילה לפעולה אפליה, יישום החוק יחול גם על המפעילים והמפתחים של המערכת. במקרים בהם מערכת בינה מלאכותית קובעת החלטה מפלה או משמשת לפרסום מבוצע על בסיס פילוח אוכלוסיות, השימוש בה יכול להוביל להפרת החוק, ולכן יכול להיות גם עניין לתביעה נזיקית או פלילית.

עם זאת, מכיוון שבמקרים רבים קיים קושי מבני להסביר מנגנון קבלת ההחלטות של מערכות מסוימות המבוססות על בינה מלאכותית, יהיה קשה לאתר מקרים בהם המערכת הביאה בחשבון שיקולים מפלים, בין אם באופן ישיר ובין אם באופן עקיף ואת המשקל שיוחס להם במסגרת קבלת ההחלטה. ייתכן כי ניתן יהיה למתן קושי זה באמצעות כלים משפטיים שונים כגון היפוך נטלי הוכחה, קביעת חזקות ועוד.[77]

דיני חוזים[עריכת קוד מקור | עריכה]

חוק החוזים לא מונע ביצוע פעולות משפטיות באמצעים ממוחשבים, משום שאין בו ככלל דרישות של צורה וטכניקה. כיום נערכות עסקאות על סמך התקשרויות מול אתרי אינטרנט, בלי שעצם ביצוע הפעולה מעורר קושי משפטי. בהתאם לסעיף 23 לחוק ככלל אין דרישה צורנית לעריכת חוזה, ולכן ככלל אין מגבלה על שימוש במחשבים ובתקשורת אלקטרונית לעריכת חוזים.[77]

עם זאת, קיומו של אלגוריתם המעורב ביצירת חוזה שונה משימוש במדיה אלקטרונית בלבד, ומעלה שאלה בדבר היכולת של "סוכן אלקטרוני" לייצר התקשרויות באופן עצמאי. על כן, ובהיעדר דין ספציפי העוסק בכך, עלולה להתעורר שאלה בדבר תחולת חוק החוזים על השימוש בבינה מלאכותית, בין היתר, יש לבחון שאלות בדבר ייחוס לצד המפעיל בינה מלאכותית להצעה להתקשר בחוזה, כוונה לבצע פעולה זו, כך שיישא בתוצאות הפעולה המשפטית.

שאלה נוספת נוגעת לקיומה של חובת גילוי בנוגע לשימוש בבינה מלאכותית על ידי מי שעושה בה שימוש בדבר עצם השימוש וזאת מכוח החובה לנהוג בתום לב במשא ומתן.

הגנת הצרכן[עריכת קוד מקור | עריכה]

חוק הגנת הצרכן, אשר נחקק בשנת 1981, קובע מגוון הוראות המטרתן להגן על צרכנים, במיוחד כאשר מערכות בינה מלאכותית מעורבות בתהליכי יצירת עסקאות. החוק מחייב גילוי מידע מלא ומפורט לצרכנים, ודורש מהעוסקים שמפעילים טכנולוגיות אלו להבטיח שהשימוש במידע האישי לא יעבור את המטרות שלשמן הוא נאסף. עם זאת, החוק מצביע גם על האתגרים שיכולים להתעורר כאשר פערי הידע בין הצרכנים לעוסקים מתרחבים עקב שימוש במערכות בינה מלאכותית.

החוק גם אוסר על פרסום ושיווק שעשוי להיות מזיק ומנצל כלפי קטינים, וקובע תקנות שמגבילות את דרכי השיווק והפרסום שמופנות אליהם, במטרה למנוע ניצול של חוסר הניסיון והבגרות של קטינים. כמו כן, הרשות להגנת הצרכן מוסיפה כי אתרים המציעים תכנים לקטינים אחראים לפרסומות שמוצגות באתריהם, ללא תלות בשליטה או ידיעה על תוכנן של הפרסומות, כאשר קיימת אפשרות שהן מבוססות על מידע שנאסף מהמכשירים שבהם הן נצפות.[83]

על פי מסמך העקרונות הדין הקיים מאפשר התמודדות מסוימת עם חלק מהאתגרים המתעוררים עקב שימוש במערכות מבוססות בינה מלאכותית, ובכלל זה אפליה, שקיפות, הצורך בהנמקה, אבטחת מידע, סייבר ופרטיות.[77]

דיני נזיקין[עריכת קוד מקור | עריכה]

שימוש במערכות מבוססות בינה מלאכותית הגורם לנזק עשוי לחשוף את המזיק לאחריות בנזיקין. במסגרת "קול קורא"[84] שפרסמה מחלקת ייעוץ וחקיקה (משפט אזרחי) במשרד המשפטים הוצגו באופן כללי שאלות מרכזיות הקשורות בדיני הנזיקין והשימוש בכלי רכב עצמאיים, אשר יש להן רלוונטיות לגבי שימוש במערכות מבוססות בינה מלאכותית. הדיון באחריות נזיקית הוא תלוי נסיבות והקשר, וגם נגזר מהמסגרת הנזיקית החלה, כגון עוולת הרשלנות או הפרת חובה חקוקה, או העוולות הפרטניות.

בהקשר של דיני נזיקין נשאלות שאלות עקרוניות וכלליות שניתן לבחון אותן במצבים חדשים מגוונים: האם יש חובת זהירות? האם חובת הזהירות הופרה? האם נגרם נזק עקב כך? האם הנזק הוא במתחם הסיכון שיצרה ההתנהגות של מערכת הבינה המלאכותית? האם הוא לא רחוק מדי? שאלה מרכזית היא האם מי שבונה מערכת של בינה מלאכותית מסוימת יכול וצריך לצפות שייגרם נזק מסוים כתוצאה מהפעלתה או השימוש בה?

במאמרו משנת 2020 דן עו״ד רחום-טוויג באתגרים של הקצאת אחריות בהקשר של רובוטים מבוססי בינה מלאכותית, בהתחשב ביכולות האוטונומיות שלהם וחוסר הניבוי שלהם. המאמר קובע שהמסגרות המשפטיות הנוכחיות אינן מספקות ולא נותנות מענה מלא לאתגרים הללו. הוא מציע כללים שיכולים להשלים מודלים קיימים של אחריות. כללים אלה, אם לא יתקיימו, יובילו לאחריות ויכולים לעזור להגדיר את היקף האחריות הפוטנציאלית עבור מתכננים, מפעילים ומשתמשי קצה של רובוטים מבוססי בינה מלאכותית.[85]

הסדרה ייעודית מגזרית[עריכת קוד מקור | עריכה]

לצד אסדרה ברמה הבינלאומית והלאומית ישנם מאמצים לאסדרה הממוקדת במגוון תחומים במשק, מניהול שירות ציבורי[86] ואחריותיות[87] ועד אכיפת החוק,[88][89] שירותי בריאות,[51][50][90][91][92] המגזר הפיננסי,[93][94] רובוטיקה,[95][96] כלי רכב אוטונומיים,[97][95] צבא[98] וביטחון לאומי[99] ומשפט בינלאומי.[100][101]

להלן שתי דוגמאות מקומיות מישראל הלקוחות מתחומי התחבורה והשירותים הפיננסיים.

תחבורה[עריכת קוד מקור | עריכה]

תיקון מספר 130 לפקודת התעבורה,[97] שמטרתו להוות תשתית חוקית לניסוי בשימוש ציבורי בכלי רכב עצמאיים במרחב הציבורי, לגבש תיקון זה לפקודת התעבורה תשתית ידע בנושא, ולבסס את אמון הציבור בכלי רכב עצמאיים. קובע דרישות רגולטוריות ממי שמפעיל רכב עצמאי, ובכלל זה בתחום הבטיחות והגנת הסייבר, התיקון מבוסס על בטרם הפעלת הרכב, וכן בכל מחזור החיים של השימוש בו במרחב הציבורי.

שירותים פיננסיים[עריכת קוד מקור | עריכה]

ביולי 2022 הגישו ד"ר ארי אחיעז, פרופ' אסף חמדני, פרופ' דן עמירם וד"ר קובי קסטיאל מבית הספר לניהול והפקולטה למשפטים של אוניברסיטת תל אביב מסמך סקירה השוואתית של התמודדות רגולטורית עם בינה מלאכותית בתחום הפיננסי. המסמך הוגש לבחינת המחלקה הכלכלית בייעוץ וחקיקה במשרד המשפטים וכולל גם המלצות לאופן שבו על המחוקק וגורמי הפיקוח, האסדרה והמשפט להיערך לקראת האתגרים וההזדמנויות בתחום, תוך אבחנה בין אתגרים כלליים לבין אתגרים ייחודים למגזר הפיננסי.[93]

יוזמות רגולטוריות ומחקריות[עריכת קוד מקור | עריכה]

מאמצים לרגולציה של בינה מלאכותית בישראל מתוארים במספר פעולות ממשלתיות ומחקריות. תחילה, בשנת 2018, המטה לביטחון לאומי במשרד ראש הממשלה ריכז את הבחינה האסטרטגית בנוגע לבינה מלאכותית, כולל עבודה משותפת עם המיזם הלאומי למערכות נבונות בטוחות. המיזם דן בעקרונות אתיים ומשפטיים וקרא לאמץ מדיניות רגולטורית אחידה ולבנות תוכניות ידע והכשרה בתחום.[102]

בשנת 2020, הפורום לתשתיות לאומיות למחקר ופיתוח, בהובלת נציג האקדמיה הלאומית למדעים, קים ועדת בדיקה שקראה ליצירת סביבה רגולטורית מאפשרת ומעודדת לבינה מלאכותית. הוועדה המליצה על התערבות ממשלתית להאצת התפתחות התחום ועל פיתוח תוכניות ידע והכשרה.[103]

בשנת 2021, מחלקת ייעוץ וחקיקה של משרד המשפטים ורשות החדשנות פרסמו "קול קורא" משותף, שקרא לציבור להעלות חסמים רגולטוריים ולהציע רגולציה אפשרית לתחום הבינה המלאכותית. במסגרת זו נערכו שולחנות עגולים עם התעשייה כדי להבין את הצרכים והאתגרים שמתעוררים.[104]

בדצמבר 2022, חודשיים לאחר פרסום מסמך העקרונות על ידי משרד החדשנות המדע והטכנולוגיה[77] התפרסמה באתר המכון הישראלי לדמוקרטיה עמדה המברכת על פרסומו אך מציעה כעניין שבעקרון, על מנת להבטיח הגנה נאותה על זכויות אדם וחירויות אזרח, שהסדרת בינה מלאכותית תהיה על בסיס חקיקה, ואין להסתפק באסדרה רכה של בינה מלאכותית ובמנגנונים וולנטריים.[28]

כלל אלו משקפים את המגמה הגוברת ליצירת תהליכים רגולטוריים מותאמים ומאורגנים להתמודדות עם האתגרים העולים מהתפתחויות בתחום הבינה המלאכותית, תוך דגש על אתיקה, נגישות והגנת הצרכן.

קשיים משפטיים באכיפה[עריכת קוד מקור | עריכה]

לצד היתרונות המשמעותיים הגלומים בו, השימוש בבינה מלאכותית מעורר סיכונים וחששות שונים, לרבות פגיעה בזכויות אדם, כפי שנזכר לעיל. סיכונים אלה תלויים בהקשר בו נעשה השימוש ההתמודדות עם סיכונים בבינה מלאכותית, ובין היתר באופן היישום הטכנולוגי וסוג השימוש.[77] וחששות אלה עשויה לעורר סוגיות משפטיות ורגולטוריות מורכבות, אשר יש בהן כדי ליצור אתגרים משמעותיים עבור המערכת המשפטית והרגולטורית ברחבי העולם ובישראל.[77]

לדוגמה, הנושא של דיני איסור האפליה מתרחש בהקשר המשתנה של בינה מלאכותית, והוא משובץ בקרבה רבה לתחום הטכנולוגיה והפיתוחים החדישים. נרחיב על קשיים משפטיים שנובעים מהשימוש בבינה מלאכותית בקשר לאפליה ישירה ועקיפה.[105][106]

בהקשר הזה, השימוש בבינה מלאכותית יכול לגרום לקשיים משפטיים בשתי דרכים עיקריות:

  1. אפליה ישירה: השימוש בקריטריונים אוטומטיים או במערכות המבוססות על בינה מלאכותית עשוי להביא לאפליה ישירה כשלעצמם. זה יכול לקרות כאשר הקריטריונים או האלגוריתמים מובנים בצורה שמפלים קבוצות מסוימות באופן בלתי ראוי.[77]
  2. אפליה עקיפה: גם במקרים בהם המערכות הבאות על החלטות מקבלות בצורה עצמאית ומיוחדת, עשויות להיות בעיות משפטיות. לדוגמה, כאשר מאפיינים שלא קשורים באופן ישיר למפלה משפיעים על ההחלטה באופן ישיר, מתקבלת החלטה שעשויה להיות אפליה בעקיפה.[77]

השימוש במערכות בינה מלאכותית בתהליכי קבלת החלטות בתחומים כמו קבלת עובדים עלול לגרום להנצחת הטיות קיימות אם התהליך מתבסס על נתונים מוגבלים השייכים לחברה הקולטת בלבד.[107] בהיעדר רגולציה שתחייב שיתוף מידע בין גופים, מתעוררת בעיה משפטית בהרחבת ובשימוש במאגרי נתונים נוספים, שכן מידע זה עשוי להיות מוגן תחת דיני פרטיות (בנוגע למידע אישי של עובדים) ודיני קניין רוחני (בנוגע למידע השייך למעסיקים).

בעיית ״הקופסה השחורה״[עריכת קוד מקור | עריכה]

בינה מלאכותית מבוססת על יכולות חישוביות המפתחות מודלים לתחזית וקבלת החלטות שלעיתים לא ניתן להבין את דרך פעולתם דרך התוצאה הסופית בלבד. המורכבות של "אימון" המערכת גורמת לכך שהלוגיקה התפעולית מתפתחת מהנתונים ומהתהליך ואינה מוגדרת מראש על ידי המפתח. מערכות אלו נתפסות לעיתים כ-"קופסה שחורה", משם שבו ידועים הקלט והפלט אך תהליך העיבוד פנימי נשאר חסוי ובלתי ניתן להבנה.[77][82][93]

הבעיה העיקרית המתעוררת נוגעת לאופן שבו קבלת החלטות על ידי המערכת יכולה לפגוע בכבוד האדם ובאוטונומיה שלו, כאשר הוא נתון להחלטות שנתפסות כשרירותיות או בלתי נראות. בנוסף, הקושי לזהות ולהתמודד עם החלטות מפלות מחמיר את הפגיעה בזכויות נוספות כמו שוויון. כאשר ההחלטה של המערכת אינה ניתנת להסבר, זה מקשה על הנפגעים להתמודד עם ההשלכות.[77]

הפתרון המוצע לבעיות אלו כולל דרישה להסברתיות – היכולת להסביר באופן מובן לאדם את אופן פעולת המערכת. תכונה זו אינה מתקיימת תמיד, ולעיתים נדרשים אמצעים חיצוניים כדי להסביר את תהליך קבלת ההחלטות.[108][109] מערכות שמבצעות תהליכים מורכבים של למידה דורשות פתרונות יצירתיים ומשפטיים להבטיח שהן נשארות שקופות ומובנות למשתמשים ולנפגעים פוטנציאליים.[77]

אחריותיות[עריכת קוד מקור | עריכה]

האחריותיות (Accountability), ובכלל זה האחריות המשפטית (Legal Liability), נמנית עם האתגרים המרכזיים הקשורים בשימוש במערכות מבוססות בינה מלאכותית. הקצאת האחריות על פעילות אוטונומית של מערכות אלה מורכבת, כיוון שהן יכולות לחקות פעולות שמזוהות עם יכולות אנושיות, ולעיתים קובעות תוצאות ללא התערבות ברורה מצד אדם.[110]

ככל שהמעורבות האנושית בתהליך הקבלה מצטמצמת, עולה השאלה איך מקבלים החלטות ומי נושא באחריות על טעויות שעשויות להתרחש. מונח האחריותיות כולל צורך להבטיח שגורמים מתאימים ישגיחו על הפיתוח והפעילות של מערכות אלו בהתאם לסטנדרטים והתקנים רלוונטיים, האחריות עלולה להיות גם משפטית, במקרה של נזקים ישירים שנגרמו מהשימוש במערכת, וגם חברתית, כאשר השפעת המערכת על הציבור או על קבוצות מסוימות גורמת לתוצאות שליליות שאינן מתקבלות על הדעת.[77]

מעורבות אנושית[עריכת קוד מקור | עריכה]

סוגיה מרכזית שמתעוררת בקשר לשימוש במערכות המבוססות על בינה מלאכותית, נוגעת למידת המעורבות האנושית הנדרשת במסגרת תהליך קבלת החלטה הנסמך על מערכת מסוג זה. מאפיין מרכזי שמייחד מערכות מבוססות בינה מלאכותית הוא יכולתן לפעול באופן אוטונומי המדמה בינה אנושית ובמקרים רבים מסוגל לבצע פעולות חישוב ביעילות רבה יותר מבינה אנושית.[77]

העיסוק במעורבות אנושית בבינה מלאכותית נעשה בשני הקשרים מרכזיים. הקשר אחד נובע מעיקרון ערכי-מוסרי שלפיו בעניינים שיש להם השפעה משמעותית על אדם, ההחלטה תתקבל על ידי אדם, כגון החלטה בעלת משמעות כלכלית כבדה או החלטות שיש בהן ממד ערכי או אתי (הוראת סעיף 22 ל-GDPR). הקשר שני הוא תועלתני, ומטרתו להתמודד עם החשש מפני כשלים בטכנולוגיה באמצעות שילוב אדם בתהליך קבלת ההחלטות.

ישנה שאלה כבדת משקל בנוגע למשמעות המעשית של מעורבות אנושית בתהליך קבלת החלטה, כאשר ניתנת המלצה ברורה של מערכת מבוססת בינה מלאכותית. מחקרים מתחום הכלכלה ההתנהגותית הראו כי ישנן הטיות ייחודיות המאפיינות את האינטראקציה בין מקבלי החלטות אנושיים לבין מערכות המבוססות על בינה מלאכותית. אחת ההטיות המרכזיות לעניין זה היא הטיית האוטומציה, במסגרתה אנשים נוטים לאמץ את המסקנה אליה הגיעה מערכת אוטומטית בלי להפעיל את אותה מידה של שיקול דעת כמו ביחס להחלטות שלא התקבלו על ידי מערכת כזו. בנוסף, יש חשש שהאדם שמעורב בתהליך קבלת ההחלטה לא יסטה מהמלצות המערכת, מפאת החשש לנשיאה באחריות במקרה של טעות בשיקול דעתו (ראו גם פרק "אחריותיות" להלן). כך למשל, רופא עלול לחשוש לסטות מהמלצה של המערכת בנוגע לטיפול רפואי מומלץ על ידי המערכת.

לבסוף, יש חשש כי המעורבות האנושית תוביל לכך שהאחריות במקרה של טעות תעבור מכתפי מקבלי החלטות שהחליטו להשתמש במערכת או מפתחי המערכת, לגורם האנושי המעורב בתהליך קבלת ההחלטה, גם כשהדבר אינו מוצדק.[111]

הערות שוליים[עריכת קוד מקור | עריכה]

  1. ^ Paul Nemitz, Constitutional democracy and technology in the age of artificial intelligence, Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences 376, 2018-11-28, עמ' 20180089 doi: 10.1098/rsta.2018.0089
  2. ^ Corinne Cath, Governing artificial intelligence: ethical, legal and technical opportunities and challenges, Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences 376, 2018-11-28, עמ' 20180080 doi: 10.1098/rsta.2018.0080
  3. ^ Miriam C. Buiten, Towards Intelligent Regulation of Artificial Intelligence, European Journal of Risk Regulation 10, 2019-03, עמ' 41–59 doi: 10.1017/err.2019.8
  4. ^ Judy Goldsmith; Erdelyi, Olivia Dr, Regulating Artificial Intelligence: Proposal for a Global Solution, Cornell University, ‏May 22, 2020
  5. ^ Algorithms and law, Cambridge New York Port Melbourne, VIC New Delhi Singapore: Cambridge University Press, 2020, ISBN 978-1-108-34784-6
  6. ^ Satariano, Adam, E.U. Agrees on Landmark Artificial Intelligence Rules - The agreement over the A.I. Act solidifies one of the world's first comprehensive attempts to limit the use of artificial intelligence, The New York Times, ‏December 8, 2023
  7. ^ Jonas Tallberg, Eva Erman, Markus Furendal, Johannes Geith, Mark Klamberg, Magnus Lundgren, The Global Governance of Artificial Intelligence: Next Steps for Empirical and Normative Research, International Studies Review 25, 2023-06-23 doi: 10.1093/isr/viad040
  8. ^ Mihály Héder, A criticism of AI ethics guidelines, Információs Társadalom 20, 2020-12-31, עמ' 57 doi: 10.22503/inftars.xx.2020.4.5
  9. ^ 1 2 Ethics guidelines for trustworthy AI, European Commission, ‏April 8, 2019
  10. ^ Caitlin Curtis, Nicole Gillespie, Steven Lockey, AI-deploying organizations are key to addressing ‘perfect storm’ of AI risks, AI and Ethics 3, 2023-02-01, עמ' 145–153 doi: 10.1007/s43681-022-00163-7
  11. ^ 1 2 Vincent, James, AI is entering an era of corporate control, The Verge, ‏April 3, 2023
  12. ^ Stanford University, Artificial Intelligence Index Report 2023, CHAPTER 6: Policy and Governance, aiindex.stanford.edu, ‏2023
  13. ^ Arthur L. Samuel, Some Moral and Technical Consequences of Automation—A Refutation, Science 132, 1960-09-16, עמ' 741–742 doi: 10.1126/science.132.3429.741
  14. ^ Camila Domonoske, Elon Musk Warns Governors: Artificial Intelligence Poses 'Existential Risk', https://www.npr.org/, ‏July 17, 2017
  15. ^ Samuel Gibbs, Elon Musk: regulate AI to combat 'existential threat' before it's too late, https://www.theguardian.com/, ‏July 17, 2017
  16. ^ Arjun Kharpal, A.I. is in its ‘infancy’ and it’s too early to regulate it, Intel CEO Brian Krzanich says, https://www.cnbc.com/, ‏November 7, 2017
  17. ^ Johanna Chamberlain, The Risk-Based Approach of the European Union’s Proposed Artificial Intelligence Regulation: Some Comments from a Tort Law Perspective, European Journal of Risk Regulation 14, 2023-03, עמ' 1–13 doi: 10.1017/err.2022.38
  18. ^ Andreas Kaplan, Michael Haenlein, Siri, Siri, in my hand: Who’s the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence, Business Horizons 62, 2019-01-01, עמ' 15–25 doi: 10.1016/j.bushor.2018.08.004
  19. ^ Edwards, Benj, Poll: AI poses risk to humanity, according to majority of Americans, Ars Technica, ‏May 17, 2023
  20. ^ Kasperowicz, Peter, Regulate AI? GOP much more skeptical than Dems that government can do it right: poll, Fox News, ‏May 2, 2023
  21. ^ Fox News Poll, Fox News, ‏2023
  22. ^ Research handbook on the law of artificial intelligence, Paperback edition, Cheltenham Northampton, MA: Edward Elgar Publishing, 2022, ISBN 978-1-78643-904-8
  23. ^ Bernd W. Wirtz, Jan C. Weyerer, Carolin Geyer, Artificial Intelligence and the Public Sector—Applications and Challenges, International Journal of Public Administration 42, 2019-05-19, עמ' 596–615 doi: 10.1080/01900692.2018.1498103
  24. ^ Alessandro Mantelero, Maria Samantha Esposito, An evidence-based methodology for human rights impact assessment (HRIA) in the development of AI data-intensive systems, Computer Law & Security Review 41, 2021-07, עמ' 105561 doi: 10.1016/j.clsr.2021.105561
  25. ^ 1 2 Miriam C. Buiten, Towards Intelligent Regulation of Artificial Intelligence, European Journal of Risk Regulation 10, 2019-03, עמ' 41–59 doi: 10.1017/err.2019.8
  26. ^ Artificial intelligence in society, Paris: OECD Publishing, 2019, ISBN 978-92-64-54519-9
  27. ^ Vladimir P. Kamyshansky, Evgenia Y. Rudenko, Evgeniy A. Kolomiets, Dina R. Kripakova, Revisiting the Place of Artificial Intelligence in Society and the State, Artificial Intelligence: Anthropogenic Nature vs. Social Origin, Springer International Publishing, 2020, עמ' 359–364 doi: 10.1007/978-3-030-39319-9_41
  28. ^ 1 2 ד"ר תהילה שוורץ אלטשולר, עו"ד עמיר כהנא, עו"ד גדי פרל, ד"ר אורי פריימן, אסדרת הבינה המלאכותית בישראל מחייבת קווים אדומים שימנעו פגיעה בזכויות יסוד, באתר המכון הישראלי לדמוקרטיה, ‏December 30, 2022
  29. ^ Walter G. Johnson, Diana M. Bowman, A Survey of Instruments and Institutions Available for the Global Governance of Artificial Intelligence, IEEE Technology and Society Magazine 40, 2021-12, עמ' 68–76 doi: 10.1109/MTS.2021.3123745
  30. ^ Marchant, Gary, “Soft Law” Governance of Artificial Intelligenc, https://escholarship.org/, ‏2019-01-25
  31. ^ Jeremy Pitt, IEEE Technology and Society Magazine publication information, IEEE Technology and Society Magazine 40, 2021-12, עמ' C2–C2 doi: 10.1109/MTS.2021.3126194
  32. ^ Hillary R. Sutcliffe, Samantha Brown, Trust and Soft Law for AI, IEEE Technology and Society Magazine 40, 2021-12, עמ' 14–24 doi: 10.1109/MTS.2021.3123741
  33. ^ C. D. Schmit, M. J. Doerr, J. K. Wagner, Leveraging IP for AI governance, Science 379, 2023-02-17, עמ' 646–648 doi: 10.1126/science.add2202
  34. ^ Henry Kissinger, Eric Schmidt and Daniel Huttenlocher, The Challenge of Being Human in the Age of AI, https://www.wsj.com/, ‏Nov. 1, 2021
  35. ^ Matthew Boyd, Nick Wilson, Rapid developments in Artificial Intelligence: how might the New Zealand government respond?, Policy Quarterly 13, 2017-11-01 doi: 10.26686/pq.v13i4.4619
  36. ^ Innovation, Science and Economic Development Canada, Declaration of the International Panel on Artificial Intelligence, https://www.canada.ca/, ‏May 16, 2019
  37. ^ Simonite, Tom, The World Has a Plan to Rein in AI—but the US Doesn’t Like It, Wired, ‏January 6, 2020
  38. ^ John Edwards, AI Regulation: Has the Time Arrived?, Information Week, ‏February 24, 2020
  39. ^ 1 2 UNESCO science report: the race against time for smarter development, Paris: United Nations Educational, Scientific and Cultural Organization, 2021, UNESCO science report, ISBN 978-92-3-100450-6
  40. ^ GPAI, Community, GPAI, ‏Snapshot from March 30, 2023
  41. ^ ai for good, ai for good
  42. ^ Mariarosaria Taddeo, Luciano Floridi, Regulate artificial intelligence to avert cyber arms race, Nature 556, 2018-04, עמ' 296–298 doi: 10.1038/d41586-018-04602-6
  43. ^ Bradford, Anu, The Race to Regulate Artificial Intelligence, Foreign Affairs, ‏June 27, 2023
  44. ^ ED FELTEN AND TERAH LYONS, The Administration’s Report on the Future of Artificial Intelligence, The White House, ‏October 12, 2016
  45. ^ John Frank Weaver, Regulation of artificial intelligence in the United States, Edward Elgar Publishing, 2018-12-28, עמ' 155–212, ISBN 978-1-78643-905-5. (באנגלית אמריקאית)
  46. ^ Melissa Heikkiläarchive page, The White House just unveiled a new AI Bill of Rights, MIT Technology Review, ‏October 4, 2022
  47. ^ Automated employment decision tools, The New York City Council, ‏December 11, 2021
  48. ^ Kristin Robinson, Tennessee Makes A.I. an Outlaw to Protect Its Country Music and More, New York Times, ‏March 26, 2024
  49. ^ Ashley King, The ELVIS Act Has Officially Been Signed Into Law — First State-Level AI Legislation In the US, Digital Music News, ‏March 21, 2024
  50. ^ 1 2 Thomas J. Hwang, Aaron S. Kesselheim, Kerstin N. Vokinger, Lifecycle Regulation of Artificial Intelligence– and Machine Learning–Based Software Devices in Medicine, JAMA 322, 2019-12-17, עמ' 2285–2286 doi: 10.1001/jama.2019.16842
  51. ^ 1 2 Ajay Kohli, Vidur Mahajan, Kevin Seals, Ajit Kohli, Saurabh Jha, Concepts in U.S. Food and Drug Administration Regulation of Artificial Intelligence for Medical Imaging, American Journal of Roentgenology 213, 2019-10, עמ' 886–888 doi: 10.2214/AJR.18.20410
  52. ^ [https://www.nitrd.gov/pubs/National-AI-RD-Strategy-2019.pdf THE NATIONAL ARTIFICIAL INTELLIGENCE RESEARCH AND DEVELOPMENT STRATEGIC PLAN: 2019 UPDATE], ‏June, 2019
  53. ^ FACT SHEET: Biden-⁠Harris Administration Secures Voluntary Commitments from Leading Artificial Intelligence Companies to Manage the Risks Posed by AI, The White House, ‏July 21, 2023
  54. ^ FACT SHEET: Biden-⁠Harris Administration Secures Voluntary Commitments from Eight Additional Artificial Intelligence Companies to Manage the Risks Posed by AI, The White House, ‏September 12, 2023
  55. ^ "ביידן חתם היום על צו נשיאותי לפיקוח על בינה מלאכותית". TheMarker. נבדק ב-2024-05-03.
  56. ^ Europe's new role in digital regulation, Le Monde, ‏August 28, 2023
  57. ^ Martin Coulter, Big Tech braces for EU Digital Services Act regulations, Reuters, ‏August 25, 2023
  58. ^ Christian Peukert, Stefan Bechtold, Tobias Kretschmer, Michail Batikas, Regulatory export and spillovers: How GDPR affects global markets for data, CEPR, ‏September 30, 2020
  59. ^ Satariano, Adam, .Europeans Take a Major Step Toward Regulating A.I., The New York Times, ‏June 14, 2023
  60. ^ Browne, Ryan, EU lawmakers pass landmark artificial intelligence regulation, CNBC, ‏June 14, 2023
  61. ^ NíFhaoláin, Labhaoise; Hines, Andrew; Nallur, Vivek, [https://ceur-ws.org/Vol-2771/AICS2020_paper_53.pdf Assessing the Appetite for Trustworthiness and the Regulation of Artificial Intelligence in Europe], Dublin: Technological University Dublin, School of Computer Science, Dublin. pp. 1–12. This article incorporates text available under the CC BY 4.0 license. (The CC BY 4.0 licence means that everyone have the right to reuse the text that is quoted here, or other parts of the original article itself, if they credit the authors, ‏2020
  62. ^ Communication Artificial Intelligence for Europe, European Commission, ‏April 25, 2018
  63. ^ Policy and investment recommendations for trustworthy Artificial Intelligence, European Commission, ‏June 26, 2019
  64. ^ White paper on artificial intelligence : a European approach to excellence and trust | WorldCat.org, search.worldcat.org (באנגלית)
  65. ^ White Paper on Artificial Intelligence – a European approach to excellence and trust, European Commission, ‏February 19, 2020
  66. ^ Broadbent, Meredith, What’s Ahead for a Cooperative Regulatory Agenda on Artificial Intelligence?, CSIS, ‏March 17, 2021
  67. ^ HEIKKILÄ, MELISSA, POLITICO AI: Decoded: The EU’s AI rules — Finland talks to machines — Facebook’s fairness project, Politico, ‏April 14, 2021
  68. ^ Maquindus, Olorin, On the back of its AI Act, the EU invests in risky software to secure borders, Le Monde, ‏June 23, 2023
  69. ^ Browne, Ryan, Europe takes aim at ChatGPT with what might soon be the West’s first A.I. law. Here’s what it means, CNBC, ‏May 15, 2023
  70. ^ Ponomarov, Kostiantyn, The EU AI Act Overview: What's Coming for Businesses, Legal Nodes, ‏March 20, 2024
  71. ^ Experts react: The EU made a deal on AI rules. But can regulators move at the speed of tech?, Atlantic Council, ‏December 11, 2023
  72. ^ NEW GENERATION OF ARTIFICIAL INTELLIGENCE DEVELOPMENT PLAN, UNODC, ‏2017
  73. ^ Department of International Cooperation Ministry of Science and Technology(MOST), P.R.China, [https://www.mfa.gov.cn/ce/cefi/eng/kxjs/P020171025789108009001.pdf Next Generation Artificial Intelligence Development Plan Issued by State Council], ‏September 15, 2017
  74. ^ Fei Wu, Cewu Lu, Mingjie Zhu, Hao Chen, Jun Zhu, Kai Yu, Lei Li, Ming Li, Qianfeng Chen, Xi Li, Xudong Cao, Zhongyuan Wang, Zhengjun Zha, Yueting Zhuang, Yunhe Pan, Towards a new generation of artificial intelligence in China, Nature Machine Intelligence 2, 2020-06, עמ' 312–316 doi: 10.1038/s42256-020-0183-4
  75. ^ Confino, Paolo, China just gave the world a blueprint for reining in generative A.I. like ChatGPT and Bard, Fortune, ‏July 14, 2023
  76. ^ עע"מ 3782/12 מפקד מחוז תל אביב-יפו במשטרת ישראל נ' איגוד האינטרנט הישראלי, סו)2( ,159 פס' 23–25 לפסק 17 הדין של השופט סולברג )2013(.
  77. ^ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 משרד החדשנות, המדע והטכנולוגיה ומשרד המשפטים, עקרונות מדיניות, רגולציה ואתיקה בתחום הבינה המלאכותית, באתר https://www.gov.il/, ‏December 14, 2023
  78. ^ עו"ד כרמית יוליס, עו"ד הווארד פולינר, עו"ד ד"ר ליטל הלמן, חוות דעת: שימושים בתכנים מוגנים בזכויות יוצרים לצורך למידת מכונה, באתר משרד המשפטים, ‏December 18, 2022
  79. ^ כבוד השופט י' טירקל, ערעור על פסק דין בית המשפט המחוזי - ע"א 8393/96, ‏December 21, 1998
  80. ^ מערכת אתר זאפ-משפטי, בינה מלאכותית וזכויות יוצרים: האם החוק מגן על יוצרים מפני AI?, באתר זאפ-משפטי, ‏28.08.23
  81. ^ ראו עת"מ )מינהליים ת"א( 24867-02-11 איי.די.איי חברה לביטוח בע"מ נ' רשם מאגרי המידע, הרשות למשפט 37 טכנולוגיה ומידע במשרד המשפטים )2012(.
  82. ^ 1 2 3 הרשות להגנת הפרטיות, חובת יידוע במסגרת איסוף ושימוש במידע אישי, באתר משרד המשפטים, ‏July 18, 2022
  83. ^ הרשות להגנת הצרכן: אתרי תוכן אחראיים לפרסומים אסורים לקטינים, באתר הפורטל המשפטי לאינטרנט, סייבר וטכנולוגיית מידע, ‏July 5, 2022
  84. ^ מחלקת ייעוץ וחקיקה, אסדרת השימוש ברכבים אוטונומיים - פנייה לקבלת עמדת הציבור בתחום הנזיקין והביטוח, באתר משרד המשפטים, ‏February 8, 2021
  85. ^ Omri Rachum-Twaig, Whose Robot Is It Anyway?, University of Illinois Law Review 4, 2020
  86. ^ Bernd W. Wirtz, Wilhelm M. Müller, An integrated artificial intelligence framework for public management, Public Management Review 21, 2019-07-03, עמ' 1076–1100 doi: 10.1080/14719037.2018.1549268
  87. ^ Dillon Reisman, Jason Schultz, Kate Crawford, Meredith Whittaker, [https://web.archive.org/web/20200614205833/https://ainowinstitute.org/aiareport2018.pdf ALGORITHMIC IMPACT ASSESSMENTS: A PRACTICAL FRAMEWORK FOR PUBLIC AGENCY ACCOUNTABILITY], AINOW, ‏April 2018
  88. ^ On Artificial Intelligence - A European approach to excellence and trust, European Commission, ‏February 19, 2020
  89. ^ Towards Responsible Artificial Intelligence Innovation, UNICRI, ‏July 2020
  90. ^ Kavita Sharma, Padmavati Manchikanti, Regulation of Artificial Intelligence in Drug Discovery and Health Care, Biotechnology Law Report 39, 2020-10-01, עמ' 371–380 doi: 10.1089/blr.2020.29183.ks
  91. ^ Haroldas Petkus, Jan Hoogewerf, Jeremy C Wyatt, What do senior physicians think about AI and clinical decision support systems: Quantitative and qualitative analysis of data from specialty societies, Clinical Medicine 20, 2020-05, עמ' 324–328 doi: 10.7861/clinmed.2019-0317
  92. ^ Jerome Y. Cheng, Jacob T. Abel, Ulysses G.J. Balis, David S. McClintock, Liron Pantanowitz, Challenges in the Development, Deployment, and Regulation of Artificial Intelligence in Anatomic Pathology, The American Journal of Pathology 191, 2021-10, עמ' 1684–1692 doi: 10.1016/j.ajpath.2020.10.018
  93. ^ 1 2 3 ד"ר ארי אחיעז, פרופ' אסף חמדני, פרופ' דן עמירם, ד"ר קובי קסטיאל בית הספר לניהול והפקולטה למשפטים, אוניברסיטת תל אביב, [https://www.gov.il/BlobFolder/news/ai_report/he/AI_report.pdf בינה מלאכותית במגזר הפיננסי: שימושים נפוצים, אתגרים וסקירה השוואתית של התמודדות רגולטורית], באתר משרד המשפטים, ‏July 18, 2022
  94. ^ Stephan Bredt, Artificial Intelligence (AI) in the Financial Sector—Potential and Public Strategies, Frontiers in Artificial Intelligence 2, 2019 doi: 10.3389/frai.2019.00016
  95. ^ 1 2 Gonenc Gurkaynak, Ilay Yilmaz, Gunes Haksever, Stifling artificial intelligence: Human perils, Computer Law & Security Review 32, 2016-10, עמ' 749–758 doi: 10.1016/j.clsr.2016.05.003
  96. ^ Ron Iphofen, Mihalis Kritikos, Regulating artificial intelligence and robotics: ethics by design in a digital society, Contemporary Social Science 16, 2021-03-15, עמ' 170–184 doi: 10.1080/21582041.2018.1563803
  97. ^ 1 2 חוק לתיקון פקודת התעבורה (מס' 130), התשפ"ב–2022, באתר מאגר החקיקה הלאומי, כנסת ישראל, ‏March 8, 2022
  98. ^ AI principles : recommendations on the ethical use of artificial intelligence by the Department of Defense | WorldCat.org, search.worldcat.org (באנגלית)
  99. ^ Alexander Babuta, Marion Oswald and Ardi Janjeva, Artificial Intelligence and UK National Security, Royal United Services Institute for Defence and Security Studies, ‏April 2020
  100. ^ Emery, David, Robots with Guns: The Rise of Autonomous Weapons Systems, Snopes, ‏April 21, 2017
  101. ^ Bento, Lucas V.M., No Mere Deodands: Human Responsibilities in the Use of Violent Intelligent Systems Under Public International Law, dash.harvard.edu, ‏2017
  102. ^ יצחק בן ישראל, אביתר מתניה וליהיא פרידמן עורכים, המיזם הלאומי למערכות נבונות בטוחות להעצמת הביטחון הלאומי והחוסן המדעי-טכנולוגי: אסטרטגיה לאומית 20 לישראל: דו"ח מיוחד לראש הממשלה )חלק א': תמצית והמלצות, ‏2020
  103. ^ 23 פורום תל"ם ועדת בינה מלאכותית ומדע הנתונים )2020( )להלן: פורום תל"ם( /il.org.innovationisrael://https.
  104. ^ רשות החדשנות, פנייה לציבור לקבלת מידע בנוגע לרגולציה וחסמים רגולטוריים ביחס לתחום הבינה המלאכותית, באתר רשות החדשנות, ‏2021
  105. ^ Lilla Farkas, Data collection in the field of ethnicity, EUROPEAN COMMISSION, ‏2017
  106. ^ עמיר כהנא ותהילה שוורץ אלטשולר, אדם, מכונה, מדינה: לקראת אסדרה של בינה מלאכותית, ירושלים: המכון הישראלי לדמוקרטיה, 2023, עמ' 179-202
  107. ^ Amanda Levendowski, How Copyright Law Can Fix Artificial Intelligence's Implicit Bias Problem, 2018
  108. ^ Gabriel Nicholas, Explaining Algorithmic Decisions, 2020
  109. ^ גדי פרך, תהילה אלטשולר, מודל ליצירת שקיפות אלגוריתמית, ירושלים: המכון הישראלי לדמוקרטיה, 2022
  110. ^ Bernd Carsten Stahl, Responsible Innovation Ecosystems: Ethical Implications of the Application of .the Ecosystem Concept to Artificial Intelligence, Responsible Innovation Ecosystems: Ethical Implications of the Application of .the Ecosystem Concept to Artificial Intelligence, 2022
  111. ^ Dominique Hogan-Doran, Computer says “no”: automation, algorithms and artificial intelligence in Government decision-making, Handbook for Judicial Officers — Artificial intelligence, ‏October 2021