לדלג לתוכן

אסדרת בינה מלאכותית

מתוך ויקיפדיה, האנציקלופדיה החופשית

אסדרה של בינה מלאכותית או רגולציה של בינה מלאכותית כוללת פיתוח מדיניות וחוקים לקידום והסדרת הפיתוח והשימוש בבינה מלאכותית. זהו חלק מאסדרה של אלגוריתמים באופן כללי.[1][2][3][4][5] תחום הרגולציה והמדיניות של בינה מלאכותית נחשב תחום מתפתח בתחומי שיפוט ברחבי העולם, בין היתר באיחוד האירופי[6] (שיש לו כוח רגולטורי שלטוני) ובגופים על-לאומיים כמו הארגון לשיתוף פעולה ופיתוח כלכלי (OECD), אגודת מהנדסי חשמל ואלקטרוניקה (IEEE) ואחרים.[7]

החל משנת 2016 ישנו גל פרסומים של הנחיות אתיקה של בינה מלאכותית על מנת לשמר יכולת שליטה חברתית על הטכנולוגיה.[8] האסדרה נחשבת הכרחית הן לעידוד בינה מלאכותית והן לניהול סיכונים נלווים. בנוסף לאסדרה, ארגונים העושים שימוש בבינה מלאכותית צריכים למלא תפקיד מרכזי ביצירה והנגשה של בינה מלאכותית בהתאם לעקרונות של בינה מלאכותית מהימנה ובטוחה[9] ולקחת אחריות כדי להפחית את הסיכונים.[10] לפי מדד AI בסטנפורד, המספר השנתי של חוקים הקשורים לבינה מלאכותית שהתקבלו ב-127 מדינות הסקר קפץ מאחד שעבר ב-2016 ל-37 שעברו ב-2022 בלבד.[11][12]

רקע היסטורי[עריכת קוד מקור | עריכה]

מומחים ותומכים בבינה מלאכותית אחראית, אתיקה בבינה מלאכותית, הגנת הצרכן וביטחון סייבר קוראים להקים מעקות בטיחות סביב פיתוח הבינה המלאכותית מאז שנות ה-60.[13] בשנת 2017, אילון מאסק קרא לרגולציה של פיתוח בינה מלאכותית. לפי NPR, מנכ"ל טסלה לא היה מרוצה מכך שהוא נאלץ לתמוך בפיקוח ממשלתי שעשוי להשפיע על תעשייתו, אך הוא סבר שהסיכונים שבהיעדר פיקוח כללי גבוהים מדי: "בדרך כלל, רגולציות מוקמות כאשר קורים דברים רעים, יש קריאות ציבור ולאחר שנים רבות מוקמת רשות רגולטורית שמפקחת על אותה תעשייה. זה לוקח הרבה זמן. זה בעבר היה רע אבל לא משהו שהציג סיכון יסודי לקיום הציוויליזציה".[14] בתגובה, חלק מהפוליטיקאים הביעו ספק בלבצע אסדרה על טכנולוגיה שעדיין בפיתוח.[15] בתגובה גם למאסק וגם להצעות מפברואר 2017 של חוקים אירופאים לאסדרה של בינה מלאכותית ורובוטיקה, בריאן קרזניץ, מנכ"ל אינטל, טען שהבינה המלאכותית עדיין בחיתולים ושזה מוקדם מדי לבצע אסדרה בטכנולוגיה.[16] חברות טכנולוגיה רבות מתנגדות לאסדרה קשה על בינה מלאכותית ו"על אף שחלק מהחברות אמרו שהן מברכות על כללים לגבי בינה מלאכותית, הן גם התנגדו לרגולציות קשות כמו אלו שנוצרות באירופה".[17] במקום לנסות לבצע אסדרה בטכנולוגיה עצמה, חלק מהאקדמאים הציעו לפתח נורמות משותפות כולל דרישות לבדיקות ושקיפות של אלגוריתמים, אולי בשילוב עם סוג של אזהרות לגבי מי שיפר זאת.[18]

בסקר של Ipsos משנת 2022, היחסים כלפי בינה מלאכותית השתנו מאוד בין מדינה למדינה; 78% מהסינים, אך רק 35% מהאמריקאים, הסכימו ש"מוצרים ושירותים המשתמשים בבינה מלאכותית מציעים יותר יתרונות מחסרונות"[11]. סקר של רויטרס/Ipsos משנת 2023 מצא ש-61% מהאמריקאים מסכימים, ו-22% לא מסכימים, שבינה מלאכותית מהווה סיכון לאנושות.[19] בסקר של פוקס ניוז משנת 2023, 35% מהאמריקאים חשבו שזה "חשוב מאוד", ו-41% נוספים חשבו שזה "די חשוב", שהממשל הפדרלי יבצע אסדרה בבינה מלאכותית, לעומת 13% שענו שזה "לא חשוב במיוחד" ו-8% שענו שזה "בכלל לא חשוב".[20][21]

גישות שונות לאסדרה (רגולציה)[עריכת קוד מקור | עריכה]

אסדרה של בינה מלאכותית תעשה על-ידי פיתוח חוקים ומדיניות ציבורית לקידום והסדרת השימוש בבינה מלאכותית,[22] אסדרה שכזו נחשבת הכרחית הן לעידוד בינה מלאכותית והן לניהול הסיכונים הנלווים.[23][24][25] שיקולי מנהל ציבורי ומדיניות מתמקדים בדרך כלל בהשלכות הטכניות והכלכליות ובמערכות בינה מלאכותית אמינות וממוקדות באדם,[26] אם כי גם רגולציה של אינטליגנציות-על מלאכותיות נחשבת.[27] הגישה הבסיסית לרגולציה מתמקדת בסיכונים ובהטיות של אלגוריתמים של למידת מכונה- ברמת נתוני הקלט, בדיקות האלגוריתמים ומודל קבלת ההחלטות, כמו גם ביכולת להסביר את הפלט המתקבל.[25]

גישה אחת לכונן אסדרה של בינה מלאכותי היא על ידי חקיקה,[28] הקושי הגדול של גישה זו נובע מהעובדה שהטכנולוגיה מתקדמת במהירות גדולה משמעותית מהיכולת של המחוקק ותהליכי החקיקה ״להדביק את הקצב״, מה שמוביל למערכת חוקים ותקנות מסורתית שאינה מעודכנת ואינה מקיפה דיה.[29] מנגד, גישה ״רכה״ יותר,[30] המתבססת על מדיניות, כללי אתיקה ופרשנות מאפשרת שינוי והתאמה בזמן קצר מה שעונה על הצרכים של טכנולוגיה מתפתחת ויישומים המבוססים עליה. עם זאת, החיסרון של הגישה הרכה הוא החוסר בפוטנציאל אכיפה.[31][32]

גישה נוספת, היא מינוף זכויות קניין רוחני (כלומר, רישוי copyleft) באובייקטים מסוימים של בינה מלאכותית והאצלת זכויות אכיפה לגורמי אכיפה ייעודיים ממשלתיים או אחרים. למשל, זכויות קניין רוחני על המודלים עצמם או מערכי המידע (דאטה-סט) בעזרתם הם אומנו. לפי גישה זו השימוש בבינה מלאכותית יהיה כפוף לרישיון בתנאים הדורשים הקפדה על כללי אתיקה וקודים התנהגותיים המוגדרים מראש.[33]

בנובמבר 2021 במאמר שפורסם בוול סטריט ז׳ורנל קראו הנרי קיסינג'ר, אריק שמידט ודניאל האטנלוצ'ר הצהרה משותפת בשם "להיות אנושי בעידן של בינה מלאכותית", הקוראת לוועדה ממשלתית לאסדרה של בינה מלאכותית.[34]

אסדרה של בינה מלאכותית בעולם[עריכת קוד מקור | עריכה]

בראייה גלובלית[עריכת קוד מקור | עריכה]

הרעיון של מועצת ממשל גלובלית להסדרת פיתוח בינה מלאכותית הועלה לפחות כבר ב-2017.[35] בדצמבר 2018, קנדה וצרפת הכריזו על תוכניות לפאנל בינלאומי בנושא בינה מלאכותית בתמיכת G7, לפי מודל של הפאנל הבינלאומי לשינויי אקלים, כדי לחקור את ההשפעות העולמיות של בינה מלאכותית על אנשים וכלכלות וכדי לכוון את פיתוח הבינה המלאכותית.[36] בשנת 2019 שונה שם הפאנל לשותפות הגלובלית בנושא בינה מלאכותית.[37][38]

השותפות הגלובלית לבינה מלאכותית (GPAI) הושקה ביוני 2020, והצהירה על צורך בפיתוח בינה מלאכותית בהתאם לזכויות אדם ולערכים דמוקרטיים, כדי להבטיח את אמון הציבור בטכנולוגיה. 15 החברים המייסדים של השותפות העולמית לבינה מלאכותית הם אוסטרליה, קנדה, האיחוד האירופי, צרפת, גרמניה, הודו, איטליה, יפן, קוריאה, מקסיקו, ניו זילנד, סינגפור, סלובניה, ארצות הברית ובריטניה.[39]

בשנת 2023, ל-GPAI יש 29 חברים.[40] מזכירות GPAI מתארחת על ידי ה-OECD בפריז, צרפת. המנדט של GPAI מכסה ארבעה נושאים, בינה מלכותית אחראית, ממשל נתונים (data governance), עתיד שוק העבודה, וחדשנות ומסחור. בנוסף GPAI גם חקרה כיצד ניתן למנף בינה מלאכותית כדי להגיב למגפת הקורונה.[39]

יוזמה של איגוד הטלקומוניקציה הבינלאומי (ITU) בשיתוף עם 40 סוכנויות אחיות של האו"ם, AI for Good היא פלטפורמה גלובלית שמטרתה לזהות יישומים מעשיים של AI לקידום יעדי הפיתוח בר-קיימא של האו"ם ולהרחיב את הפתרונות הללו להשפעה גלובלית. זוהי פלטפורמה מכוונת פעולה, גלובלית ומכילה של האומות המאוחדות המטפחת פיתוח של בינה מלאכותית להשפעה חיובית על בריאות, אקלים, מגדר, שגשוג כולל, תשתית בת קיימא וסדרי עדיפויות פיתוח גלובליים אחרים.[41]

צפוי שגם מדינות יתחילו להשתמש בבינה מלאכותית ככלי להגנת סייבר לאומית. לכן, אנשי אקדמיה קוראים למדינות לקבוע תקנות לשימוש בבינה מלאכותית, בדומה לאופן שבו יש תקנות לתעשיות צבאיות אחרות.[42]

ברמת המדינה, מדינות שונות התייחסו לבעיה בדרכים שונות. לגבי שלוש הכלכלות הגדולות, נאמר כי "ארצות הברית נוקטת בגישה מונעת שוק, סין מקדמת גישה מונעת על ידי מדינה, והאיחוד האירופי נוקט בגישה מונעת זכויות".[43]

ארצות הברית[עריכת קוד מקור | עריכה]

בארצות הברית אמנם אין מסגרת פדרלית מקיפה לרגולציה של בינה מלאכותית, אך ישנם מאמצים ברמה הפדרלית והמדינה לטפל בסיכונים ספציפיים ובחששות אתיים הקשורים לבינה מלאכותית. מאמצים מוקדמים עוד בתקופת ממשל אובמה התמקדו בסיכונים ובתקנות של בינה מלאכותית בשנת 2016.[44] הדו"ח הראשי הראשון היה התוכנית הלאומית למחקר ופיתוח אסטרטגיים לבינה מלאכותית ב-2018.[45][46]

בשנת 2019 פרסם הבית הלבן טיוטת הנחיה להסדרה של יישומי בינה מלאכותית והוקמה הוועדה לביטחון לאומי לבינה מלאכותית (NSCAI) "כדי לשקול את השיטות והאמצעים הדרושים לקידום פיתוח הבינה המלאכותית, למידת מכונה וטכנולוגיות נלוות כדי לתת מענה מקיף לצורכי הביטחון הלאומי וההגנה של ארצות הברית". הנשיא ביידן חתם על צו ביצוע בנושא בינה מלאכותית בטוחה, מאובטחת ומהימנה בשנת 2023.[47]

ברמת המדינה ישנם מאמצים להסדרת השימוש בבינה מלאכותית, עיריית ניו יורק חוקקה את חוק ביקורת ההטיה בשנת 2021 כדי לטפל בהטיה אלגוריתמית בגיוס עובדים.[48] טנסי חוקקה את חוק ELVIS בשנת 2024 כדי להסדיר זיופים עמוקים ושיבוט קול.[49][50]

כמו כן ישנם מאמצים של סוכנויות ספציפיות בתחום אחריותן. לדוגמה מינהל המזון והתרופות המסדיר את השימוש בבינה מלאכותית בהדמיה רפואית[51][52] או המכון הלאומי לתקנים וטכנולוגיה שפרסם נייר עמדה על רגולציה של בינה מלאכותית.[53]

בנוסף, מתוך הגישה מונעת שוק, ישנן יוזמות והתחייבויות וולונטריות של חברות טכנולוגיה להבטיח ניהול סיכונים של שימוש בלתי אחראי בבינה מלאכותית. ביולי 2023, ממשל ביידן-האריס השיג התחייבויות וולונטריות משבע חברות - אמזון, אנתרופיק, גוגל, אינפלקשן, מטא, מיקרוסופט ו-OpenAI - לנהל את הסיכונים הקשורים לבינה מלאכותית. החברות התחייבו להבטיח שמוצרי בינה מלאכותית יעברו בדיקות אבטחה פנימיות וחיצוניות לפני פרסום פומבי; לשתף מידע על ניהול סיכוני בינה מלאכותית עם התעשייה, ממשלות, החברה האזרחית והאקדמיה; לתת עדיפות לאבטחת סייבר ולהגן על רכיבי מערכת בינה מלאכותית קניינית; לפתח מנגנונים ליידע את המשתמשים כאשר תוכן נוצר בינה מלאכותית, כגון סימון מים; לדווח בפומבי על היכולות, המגבלות ותחומי השימוש של מערכות ה-AI שלהם; לתת עדיפות למחקר על סיכונים חברתיים הנשקפים מ-AI, כולל הטיה, אפליה ודאגות לפרטיות; ולפתח מערכות בינה מלאכותית כדי להתמודד עם אתגרים חברתיים, החל ממניעת סרטן ועד להפחתת שינויי אקלים. בספטמבר 2023, שמונה חברות נוספות - Adobe, Cohere, IBM, Nvidia, Palantir, Salesforce, Scale AI ו-Stability AI - חתמו אף הן על התחייבויות וולונטריות אלה.[54][55]

ב 30 באוקטובר 2023 חתם נשיא ארצות הברית ג'ו ביידן על צו נשיאותי הכולל רגולציות פדרליות ראשונות לפיקוח על מערכות בינה מלאכותית. הצו כולל דרישות לפיהן מוצרי בינה מלאכותית ייבדקו כדי להבטיח שלא ניתן יהיה להשתמש בהם לפיתוח כלי נשק ביולוגיים או גרעיניים. הרגולציות כוללות גם המלצות, שתוצרי מדיה כגון תמונות, סרטונים וקובצי קול, שמפותחים על ידי מערכות בינה מלאכותית, יסומנו בתווית, שתבהיר שהם נוצרו על ידי בינה מלאכותית. הרגולציה נועדה להקשות על שימוש בכלי בינה מלאכותית ליצירה של "דיפ פייק" והפצת מידע שקרי שעלול להיראות אמין, למשל כדי לשבש מערכות בחירות במדינות דמוקרטיות.[56]

האיחוד האירופי[עריכת קוד מקור | עריכה]

האיחוד האירופי הוא אחד מתחומי השיפוט הגדולים בעולם והוא ממלא תפקיד פעיל ברגולציה העולמית של טכנולוגיה דיגיטלית באמצעות GDPR‏,[57][58]‏ Digital Services Act (אנ')‏ ו-Digital Markets Act (אנ')[59] חוק הבינה המלאכותית נחשב בשנת 2023 לרגולציה מרחיקת הלכת של AI ברחבי העולם.[60][61]

לרוב מדינות האיחוד האירופי (EU) יש אסטרטגיות לאומיות משלהן להסדרת בינה מלאכותית, אך הן מתכנסות במידה רבה.[62] האיחוד האירופי מונחה על ידי אסטרטגיה אירופית בנושא בינה מלאכותית,[63] הנתמכת על ידי קבוצת מומחים לבינה מלאכותית.[64][65] באפריל 2019, הנציבות האירופית פרסמה את הנחיות האתיקה שלה לבינה מלאכותית מהימנה (AI),[9] עם המדיניות והמלצות ההשקעה שלה לבינה מלאכותית מהימנה ביוני 2019.[66] קבוצת המומחים של נציבות האיחוד האירופי בנושא בינה מלאכותית מבצעת עבודה על מהימנות של בינה מלאכותית, והנציבות פרסמה דוחות על היבטי הבטיחות והאחריות של AI ועל האתיקה של כלי רכב אוטומטיים.[67]

בפברואר 2020 פרסמה הנציבות האירופית מאמר (whitepaper) על בינה מלאכותית המתאר את גישת "אקוסיסטמה של מצוינות" ו"אקוסיסטמה של אמון", האחרון התמקד במסגרת רגולטורית עתידית עבור בינה מלאכותית, במיוחד עבור יישומים בסיכון גבוה בתחומים כמו בריאות, תחבורה ואנרגיה. יישומים אלה יהיו כפופים לדרישות לגבי נתוני הכשרה, שמירה על תיעוד, אספקת מידע, חוסן, דיוק ופיקוח אנושי.[68][69][70]

טיוטת הרגולציה הודלפה באפריל 2021,[71] ואחריה ההצעה הרשמית במאי 2021. חוק הבינה המלאכותית הסופי (Artificial Intelligence Act) אומץ ביוני 2023.[72] הוא מתבסס על הגישה מבוססת הסיכון, ומגדיר ארבע קטגוריות סיכון: מינימלי, מוגבל, גבוה ובלתי מקובל.[73]

החוק ספג ביקורת על הגדרותיו הלא ברורות והשלכות שליליות אפשריות על קבוצות פגיעות. עם זאת, הוא צפוי להיכנס לתוקף בסוף 2025 או בתחילת 2026,[74] ויביא תקנות על פיתוח, פריסה ושימוש בבינה מלאכותית ברחבי האיחוד האירופי. החוק אוסר באופן כללי את השימוש בזיהוי רגשות ובזיהוי ביומטרי, עם חריגים צרים לאכיפת החוק.[75]

סין[עריכת קוד מקור | עריכה]

רגולציה על בינה מלאכותית בסין נשלטת בעיקר על ידי החלטת מועצת המדינה של הרפובליקה העממית של סין מ-8 ביולי 2017 "תוכנית פיתוח בינה מלאכותית של הדור הבא" (מסמך מועצת המדינה מס' 35), שבה הוועד המרכזי של המפלגה הסינית הקומוניסטית ומועצת המדינה של סין דחקו בגופים המנהלים של סין לקדם את הפיתוח של בינה מלאכותית עד 2030. הרגולציה של נושאי התמיכה האתית והמשפטית לפיתוח בינה מלאכותית מואצת, והמדיניות מבטיחה שליטה של המדינה בחברות סיניות על נתונים יקרי ערך, כולל אחסון נתונים על משתמשים סיניים בתוך המדינה ושימוש חובה בסטנדרטים הלאומיים של הרפובליקה העממית של סין עבור בינה מלאכותית, כולל על ביג דאטה, מחשוב ענן ותוכנות תעשייתיות.[76][77][78] בשנת 2021, סין פרסמה קווים מנחים אתיים לשימוש בבינה מלאכותית בסין, הקובעת כי על החוקרים להבטיח שהבינה המלאכותית עומדת בערכים אנושיים משותפים, נמצאת תמיד בשליטה אנושית ואינה מסכנת את ביטחון הציבור. בשנת 2023, סין הציגה אמצעי ביניים לניהול שירותי בינה מלאכותית.[79]

מדינות נוספות אחרות[עריכת קוד מקור | עריכה]

נוף הרגולציה והמדיניות של בינה מלאכותית הוא נושא מתפתח בתחומי שיפוט אזוריים ולאומיים ברחבי העולם. באוסטרליה, ברזיל, קנדה, גרמניה, איטליה, ספרד ובריטניה עשו הממשלות מאמצים להסדיר ולשלוט בשימוש בבינה מלאכותית. בעוד שהפרטים הספציפיים של הגישה של כל מדינה לבינה מלאכותית עשויים להשתנות כולן נוקטות בצעדים מעשיים כדי לקדם שימוש אחראי ומועיל בבינה מלאכותית.[80][81][82][83][84][85][86]

חלק מהצעדים הספציפיים שמדינות אלו נקטו כוללים: יצירת קווים מנחים אתיים עבור בינה מלאכותית המבטיחים שימוש בבינה מלאכותית בצורה אחראית ואתית, אסדרה של בינה מלאכותית ופיתוח חוקים ותקנות כדי להבטיח שימוש בטוח ויעיל בבינה מלאכותית. טיפול בהשפעה החברתית והכלכלית הפוטנציאלית של בינה מלאכותית, ומתכוננות לדרכים שבהן בינה מלאכותית עשויה לשנות את החברה והכלכלה בעתיד.[80][81][82][83][84][85][86]

בישראל[עריכת קוד מקור | עריכה]

ערך מורחב – אסדרת בינה מלאכותית בישראל

בעידן הדיגיטלי, ישראל מתמודדת עם אתגרים רגולטוריים מורכבים הקשורים לפיתוח ושימוש בבינה מלאכותית. השינויים הטכנולוגיים מחייבים התאמות במשפט וברגולציה, תהליך שאינו פשוט ודורש גם חקיקה חדשה וגם פרשנות מחודשת לחוקים קיימים.

קשיים משפטיים באכיפה[עריכת קוד מקור | עריכה]

לצד היתרונות המשמעותיים הגלומים בו, השימוש בבינה מלאכותית מעורר סיכונים וחששות שונים, לרבות פגיעה בזכויות אדם, כפי שנזכר לעיל. סיכונים אלה תלויים בהקשר בו נעשה השימוש ההתמודדות עם סיכונים בבינה מלאכותית, ובין היתר באופן היישום הטכנולוגי וסוג השימוש.[87] וחששות אלה עשויה לעורר סוגיות משפטיות ורגולטוריות מורכבות, אשר יש בהן כדי ליצור אתגרים משמעותיים עבור המערכת המשפטית והרגולטורית ברחבי העולם ובישראל.[87]

לדוגמה, הנושא של דיני איסור האפליה מתרחש בהקשר המשתנה של בינה מלאכותית, והוא משובץ בקרבה רבה לתחום הטכנולוגיה והפיתוחים החדישים. נרחיב על קשיים משפטיים שנובעים מהשימוש בבינה מלאכותית בקשר לאפליה ישירה ועקיפה.[88][89]

בהקשר הזה, השימוש בבינה מלאכותית יכול לגרום לקשיים משפטיים בשתי דרכים עיקריות:

  1. אפליה ישירה: השימוש בקריטריונים אוטומטיים או במערכות המבוססות על בינה מלאכותית עשוי להביא לאפליה ישירה כשלעצמם. זה יכול לקרות כאשר הקריטריונים או האלגוריתמים מובנים בצורה שמפלים קבוצות מסוימות באופן בלתי ראוי.[87]
  2. אפליה עקיפה: גם במקרים בהם המערכות הבאות על החלטות מקבלות בצורה עצמאית ומיוחדת, עשויות להיות בעיות משפטיות. לדוגמה, כאשר מאפיינים שלא קשורים באופן ישיר למפלה משפיעים על ההחלטה באופן ישיר, מתקבלת החלטה שעשויה להיות אפליה בעקיפה.[87]

השימוש במערכות בינה מלאכותית בתהליכי קבלת החלטות בתחומים כמו קבלת עובדים עלול לגרום להנצחת הטיות קיימות אם התהליך מתבסס על נתונים מוגבלים השייכים לחברה הקולטת בלבד.[90] בהיעדר רגולציה שתחייב שיתוף מידע בין גופים, מתעוררת בעיה משפטית בהרחבת ובשימוש במאגרי נתונים נוספים, שכן מידע זה עשוי להיות מוגן תחת דיני פרטיות (בנוגע למידע אישי של עובדים) ודיני קניין רוחני (בנוגע למידע השייך למעסיקים).

בעיית ״הקופסה השחורה״[עריכת קוד מקור | עריכה]

בינה מלאכותית מבוססת על יכולות חישוביות המפתחות מודלים לתחזית וקבלת החלטות שלעיתים לא ניתן להבין את דרך פעולתם דרך התוצאה הסופית בלבד. המורכבות של "אימון" המערכת גורמת לכך שהלוגיקה התפעולית מתפתחת מהנתונים ומהתהליך ואינה מוגדרת מראש על ידי המפתח. מערכות אלו נתפסות לעיתים כ-"קופסה שחורה", משם שבו ידועים הקלט והפלט אך תהליך העיבוד פנימי נשאר חסוי ובלתי ניתן להבנה.[87][91][92]

הבעיה העיקרית המתעוררת נוגעת לאופן שבו קבלת החלטות על ידי המערכת יכולה לפגוע בכבוד האדם ובאוטונומיה שלו, כאשר הוא נתון להחלטות שנתפסות כשרירותיות או בלתי נראות. בנוסף, הקושי לזהות ולהתמודד עם החלטות מפלות מחמיר את הפגיעה בזכויות נוספות כמו שוויון. כאשר ההחלטה של המערכת אינה ניתנת להסבר, זה מקשה על הנפגעים להתמודד עם ההשלכות.[87]

הפתרון המוצע לבעיות אלו כולל דרישה להסברתיות – היכולת להסביר באופן מובן לאדם את אופן פעולת המערכת. תכונה זו אינה מתקיימת תמיד, ולעיתים נדרשים אמצעים חיצוניים כדי להסביר את תהליך קבלת ההחלטות.[93][94] מערכות שמבצעות תהליכים מורכבים של למידה דורשות פתרונות יצירתיים ומשפטיים להבטיח שהן נשארות שקופות ומובנות למשתמשים ולנפגעים פוטנציאליים.[87]

אחריותיות[עריכת קוד מקור | עריכה]

האחריותיות (Accountability) (אנ'), ובכלל זה האחריות המשפטית (Legal Liability), נמנית עם האתגרים המרכזיים הקשורים בשימוש במערכות מבוססות בינה מלאכותית. הקצאת האחריות על פעילות אוטונומית של מערכות אלה מורכבת, כיוון שהן יכולות לחקות פעולות שמזוהות עם יכולות אנושיות, ולעיתים קובעות תוצאות ללא התערבות ברורה מצד אדם.[95]

ככל שהמעורבות האנושית בתהליך הקבלה מצטמצמת, עולה השאלה איך מקבלים החלטות ומי נושא באחריות על טעויות שעשויות להתרחש. מונח האחריותיות כולל צורך להבטיח שגורמים מתאימים ישגיחו על הפיתוח והפעילות של מערכות אלו בהתאם לסטנדרטים והתקנים רלוונטיים, האחריות עלולה להיות גם משפטית, במקרה של נזקים ישירים שנגרמו מהשימוש במערכת, וגם חברתית, כאשר השפעת המערכת על הציבור או על קבוצות מסוימות גורמת לתוצאות שליליות שאינן מתקבלות על הדעת.[87]

מעורבות אנושית[עריכת קוד מקור | עריכה]

סוגיה מרכזית שמתעוררת בקשר לשימוש במערכות המבוססות על בינה מלאכותית, נוגעת למידת המעורבות האנושית הנדרשת במסגרת תהליך קבלת החלטה הנסמך על מערכת מסוג זה. מאפיין מרכזי שמייחד מערכות מבוססות בינה מלאכותית הוא יכולתן לפעול באופן אוטונומי המדמה בינה אנושית ובמקרים רבים מסוגל לבצע פעולות חישוב ביעילות רבה יותר מבינה אנושית.[87]

העיסוק במעורבות אנושית בבינה מלאכותית נעשה בשני הקשרים מרכזיים. הקשר אחד נובע מעיקרון ערכי-מוסרי שלפיו בעניינים שיש להם השפעה משמעותית על אדם, ההחלטה תתקבל על ידי אדם, כגון החלטה בעלת משמעות כלכלית כבדה או החלטות שיש בהן ממד ערכי או אתי (הוראת סעיף 22 ל-GDPR). הקשר שני הוא תועלתני, ומטרתו להתמודד עם החשש מפני כשלים בטכנולוגיה באמצעות שילוב אדם בתהליך קבלת ההחלטות.

ישנה שאלה כבדת משקל בנוגע למשמעות המעשית של מעורבות אנושית בתהליך קבלת החלטה, כאשר ניתנת המלצה ברורה של מערכת מבוססת בינה מלאכותית. מחקרים מתחום הכלכלה ההתנהגותית הראו כי ישנן הטיות ייחודיות המאפיינות את האינטראקציה בין מקבלי החלטות אנושיים לבין מערכות המבוססות על בינה מלאכותית. אחת ההטיות המרכזיות לעניין זה היא הטיית האוטומציה, במסגרתה אנשים נוטים לאמץ את המסקנה אליה הגיעה מערכת אוטומטית בלי להפעיל את אותה מידה של שיקול דעת כמו ביחס להחלטות שלא התקבלו על ידי מערכת כזו. בנוסף, יש חשש שהאדם שמעורב בתהליך קבלת ההחלטה לא יסטה מהמלצות המערכת, מפאת החשש לנשיאה באחריות במקרה של טעות בשיקול דעתו (ראו גם פרק "אחריותיות" להלן). כך למשל, רופא עלול לחשוש לסטות מהמלצה של המערכת בנוגע לטיפול רפואי מומלץ על ידי המערכת.

לבסוף, יש חשש כי המעורבות האנושית תוביל לכך שהאחריות במקרה של טעות תעבור מכתפי מקבלי החלטות שהחליטו להשתמש במערכת או מפתחי המערכת, לגורם האנושי המעורב בתהליך קבלת ההחלטה, גם כשהדבר אינו מוצדק.[96]

הערות שוליים[עריכת קוד מקור | עריכה]

  1. ^ Paul Nemitz, Constitutional democracy and technology in the age of artificial intelligence, Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences 376, 2018-11-28, עמ' 20180089 doi: 10.1098/rsta.2018.0089
  2. ^ Corinne Cath, Governing artificial intelligence: ethical, legal and technical opportunities and challenges, Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences 376, 2018-11-28, עמ' 20180080 doi: 10.1098/rsta.2018.0080
  3. ^ Miriam C. Buiten, Towards Intelligent Regulation of Artificial Intelligence, European Journal of Risk Regulation 10, 2019-03, עמ' 41–59 doi: 10.1017/err.2019.8
  4. ^ Judy Goldsmith; Erdelyi, Olivia Dr, Regulating Artificial Intelligence: Proposal for a Global Solution, Cornell University, ‏May 22, 2020
  5. ^ Algorithms and law, Cambridge New York Port Melbourne, VIC New Delhi Singapore: Cambridge University Press, 2020, ISBN 978-1-108-34784-6
  6. ^ Satariano, Adam, E.U. Agrees on Landmark Artificial Intelligence Rules - The agreement over the A.I. Act solidifies one of the world's first comprehensive attempts to limit the use of artificial intelligence, The New York Times, ‏December 8, 2023
  7. ^ Jonas Tallberg, Eva Erman, Markus Furendal, Johannes Geith, Mark Klamberg, Magnus Lundgren, The Global Governance of Artificial Intelligence: Next Steps for Empirical and Normative Research, International Studies Review 25, 2023-06-23 doi: 10.1093/isr/viad040
  8. ^ Mihály Héder, A criticism of AI ethics guidelines, Információs Társadalom 20, 2020-12-31, עמ' 57 doi: 10.22503/inftars.xx.2020.4.5
  9. ^ 1 2 Ethics guidelines for trustworthy AI, European Commission, ‏April 8, 2019
  10. ^ Caitlin Curtis, Nicole Gillespie, Steven Lockey, AI-deploying organizations are key to addressing ‘perfect storm’ of AI risks, AI and Ethics 3, 2023-02-01, עמ' 145–153 doi: 10.1007/s43681-022-00163-7
  11. ^ 1 2 Vincent, James, AI is entering an era of corporate control, The Verge, ‏April 3, 2023
  12. ^ Stanford University, Artificial Intelligence Index Report 2023, CHAPTER 6: Policy and Governance, aiindex.stanford.edu, ‏2023
  13. ^ Arthur L. Samuel, Some Moral and Technical Consequences of Automation—A Refutation, Science 132, 1960-09-16, עמ' 741–742 doi: 10.1126/science.132.3429.741
  14. ^ Camila Domonoske, Elon Musk Warns Governors: Artificial Intelligence Poses 'Existential Risk', https://www.npr.org/, ‏July 17, 2017
  15. ^ Samuel Gibbs, Elon Musk: regulate AI to combat 'existential threat' before it's too late, https://www.theguardian.com/, ‏July 17, 2017
  16. ^ Arjun Kharpal, A.I. is in its ‘infancy’ and it’s too early to regulate it, Intel CEO Brian Krzanich says, https://www.cnbc.com/, ‏November 7, 2017
  17. ^ Johanna Chamberlain, The Risk-Based Approach of the European Union’s Proposed Artificial Intelligence Regulation: Some Comments from a Tort Law Perspective, European Journal of Risk Regulation 14, 2023-03, עמ' 1–13 doi: 10.1017/err.2022.38
  18. ^ Andreas Kaplan, Michael Haenlein, Siri, Siri, in my hand: Who’s the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence, Business Horizons 62, 2019-01-01, עמ' 15–25 doi: 10.1016/j.bushor.2018.08.004
  19. ^ Edwards, Benj, Poll: AI poses risk to humanity, according to majority of Americans, Ars Technica, ‏May 17, 2023
  20. ^ Kasperowicz, Peter, Regulate AI? GOP much more skeptical than Dems that government can do it right: poll, Fox News, ‏May 2, 2023
  21. ^ Fox News Poll, Fox News, ‏2023
  22. ^ Research handbook on the law of artificial intelligence, Paperback edition, Cheltenham Northampton, MA: Edward Elgar Publishing, 2022, ISBN 978-1-78643-904-8
  23. ^ Bernd W. Wirtz, Jan C. Weyerer, Carolin Geyer, Artificial Intelligence and the Public Sector—Applications and Challenges, International Journal of Public Administration 42, 2019-05-19, עמ' 596–615 doi: 10.1080/01900692.2018.1498103
  24. ^ Alessandro Mantelero, Maria Samantha Esposito, An evidence-based methodology for human rights impact assessment (HRIA) in the development of AI data-intensive systems, Computer Law & Security Review 41, 2021-07, עמ' 105561 doi: 10.1016/j.clsr.2021.105561
  25. ^ 1 2 Miriam C. Buiten, Towards Intelligent Regulation of Artificial Intelligence, European Journal of Risk Regulation 10, 2019-03, עמ' 41–59 doi: 10.1017/err.2019.8
  26. ^ Artificial intelligence in society, Paris: OECD Publishing, 2019, ISBN 978-92-64-54519-9
  27. ^ Vladimir P. Kamyshansky, Evgenia Y. Rudenko, Evgeniy A. Kolomiets, Dina R. Kripakova, Revisiting the Place of Artificial Intelligence in Society and the State, Artificial Intelligence: Anthropogenic Nature vs. Social Origin, Springer International Publishing, 2020, עמ' 359–364 doi: 10.1007/978-3-030-39319-9_41
  28. ^ ד"ר תהילה שוורץ אלטשולר, עו"ד עמיר כהנא, עו"ד גדי פרל, ד"ר אורי פריימן, אסדרת הבינה המלאכותית בישראל מחייבת קווים אדומים שימנעו פגיעה בזכויות יסוד, באתר המכון הישראלי לדמוקרטיה, ‏December 30, 2022
  29. ^ Walter G. Johnson, Diana M. Bowman, A Survey of Instruments and Institutions Available for the Global Governance of Artificial Intelligence, IEEE Technology and Society Magazine 40, 2021-12, עמ' 68–76 doi: 10.1109/MTS.2021.3123745
  30. ^ Marchant, Gary, “Soft Law” Governance of Artificial Intelligenc, https://escholarship.org/, ‏2019-01-25
  31. ^ Jeremy Pitt, IEEE Technology and Society Magazine publication information, IEEE Technology and Society Magazine 40, 2021-12, עמ' C2–C2 doi: 10.1109/MTS.2021.3126194
  32. ^ Hillary R. Sutcliffe, Samantha Brown, Trust and Soft Law for AI, IEEE Technology and Society Magazine 40, 2021-12, עמ' 14–24 doi: 10.1109/MTS.2021.3123741
  33. ^ C. D. Schmit, M. J. Doerr, J. K. Wagner, Leveraging IP for AI governance, Science 379, 2023-02-17, עמ' 646–648 doi: 10.1126/science.add2202
  34. ^ Henry Kissinger, Eric Schmidt and Daniel Huttenlocher, The Challenge of Being Human in the Age of AI, https://www.wsj.com/, ‏Nov. 1, 2021
  35. ^ Matthew Boyd, Nick Wilson, Rapid developments in Artificial Intelligence: how might the New Zealand government respond?, Policy Quarterly 13, 2017-11-01 doi: 10.26686/pq.v13i4.4619
  36. ^ Innovation, Science and Economic Development Canada, Declaration of the International Panel on Artificial Intelligence, https://www.canada.ca/, ‏May 16, 2019
  37. ^ Simonite, Tom, The World Has a Plan to Rein in AI—but the US Doesn’t Like It, Wired, ‏January 6, 2020
  38. ^ John Edwards, AI Regulation: Has the Time Arrived?, Information Week, ‏February 24, 2020
  39. ^ 1 2 UNESCO science report: the race against time for smarter development, Paris: United Nations Educational, Scientific and Cultural Organization, 2021, UNESCO science report, ISBN 978-92-3-100450-6
  40. ^ GPAI, Community, GPAI, ‏Snapshot from March 30, 2023
  41. ^ ai for good, ai for good
  42. ^ Mariarosaria Taddeo, Luciano Floridi, Regulate artificial intelligence to avert cyber arms race, Nature 556, 2018-04, עמ' 296–298 doi: 10.1038/d41586-018-04602-6
  43. ^ Bradford, Anu, The Race to Regulate Artificial Intelligence, Foreign Affairs, ‏June 27, 2023
  44. ^ ED FELTEN AND TERAH LYONS, The Administration’s Report on the Future of Artificial Intelligence, The White House, ‏October 12, 2016
  45. ^ John Frank Weaver, Regulation of artificial intelligence in the United States, Edward Elgar Publishing, 2018-12-28, עמ' 155–212, ISBN 978-1-78643-905-5. (באנגלית אמריקאית)
  46. ^ אתר משפט ועסקים, רשימה: זכויות אדם בבינה מלאכותית? על המתווה האמריקאי למגילת זכויות בבינה מלאכותית ומשמעותו | עמיר כהנא ודפנה דרור-שפוליאנסקי, באתר משפט ועסקים, ‏2023-05-18
  47. ^ Melissa Heikkiläarchive page, The White House just unveiled a new AI Bill of Rights, MIT Technology Review, ‏October 4, 2022
  48. ^ Automated employment decision tools, The New York City Council, ‏December 11, 2021
  49. ^ Kristin Robinson, Tennessee Makes A.I. an Outlaw to Protect Its Country Music and More, New York Times, ‏March 26, 2024
  50. ^ Ashley King, The ELVIS Act Has Officially Been Signed Into Law — First State-Level AI Legislation In the US, Digital Music News, ‏March 21, 2024
  51. ^ Thomas J. Hwang, Aaron S. Kesselheim, Kerstin N. Vokinger, Lifecycle Regulation of Artificial Intelligence– and Machine Learning–Based Software Devices in Medicine, JAMA 322, 2019-12-17, עמ' 2285–2286 doi: 10.1001/jama.2019.16842
  52. ^ Ajay Kohli, Vidur Mahajan, Kevin Seals, Ajit Kohli, Saurabh Jha, Concepts in U.S. Food and Drug Administration Regulation of Artificial Intelligence for Medical Imaging, American Journal of Roentgenology 213, 2019-10, עמ' 886–888 doi: 10.2214/AJR.18.20410
  53. ^ [https://www.nitrd.gov/pubs/National-AI-RD-Strategy-2019.pdf THE NATIONAL ARTIFICIAL INTELLIGENCE RESEARCH AND DEVELOPMENT STRATEGIC PLAN: 2019 UPDATE], ‏June, 2019
  54. ^ FACT SHEET: Biden-⁠Harris Administration Secures Voluntary Commitments from Leading Artificial Intelligence Companies to Manage the Risks Posed by AI, The White House, ‏July 21, 2023
  55. ^ FACT SHEET: Biden-⁠Harris Administration Secures Voluntary Commitments from Eight Additional Artificial Intelligence Companies to Manage the Risks Posed by AI, The White House, ‏September 12, 2023
  56. ^ אתר למנויים בלבד ביידן חתם היום על צו נשיאותי לפיקוח על בינה מלאכותית, באתר TheMarker‏, 30 באוקטובר 2023
  57. ^ Europe's new role in digital regulation, Le Monde, ‏August 28, 2023
  58. ^ Martin Coulter, Big Tech braces for EU Digital Services Act regulations, Reuters, ‏August 25, 2023
  59. ^ Christian Peukert, Stefan Bechtold, Tobias Kretschmer, Michail Batikas, Regulatory export and spillovers: How GDPR affects global markets for data, CEPR, ‏September 30, 2020
  60. ^ Satariano, Adam, .Europeans Take a Major Step Toward Regulating A.I., The New York Times, ‏June 14, 2023
  61. ^ Browne, Ryan, EU lawmakers pass landmark artificial intelligence regulation, CNBC, ‏June 14, 2023
  62. ^ NíFhaoláin, Labhaoise; Hines, Andrew; Nallur, Vivek, [https://ceur-ws.org/Vol-2771/AICS2020_paper_53.pdf Assessing the Appetite for Trustworthiness and the Regulation of Artificial Intelligence in Europe], Dublin: Technological University Dublin, School of Computer Science, Dublin. pp. 1–12. This article incorporates text available under the CC BY 4.0 license. (The CC BY 4.0 licence means that everyone have the right to reuse the text that is quoted here, or other parts of the original article itself, if they credit the authors, ‏2020
  63. ^ Communication Artificial Intelligence for Europe, European Commission, ‏April 25, 2018
  64. ^ High-level expert group on artificial intelligence | Shaping Europe’s digital future, digital-strategy.ec.europa.eu, ‏2024-06-12 (באנגלית)
  65. ^ Jozef Andraško, Matúš Mesarčík, Ondrej Hamuľák, The regulatory intersections between artificial intelligence, data protection and cyber security: challenges and opportunities for the EU legal framework, AI & SOCIETY 36, 2021-06, עמ' 623–636 doi: 10.1007/s00146-020-01125-5
  66. ^ Policy and investment recommendations for trustworthy Artificial Intelligence, European Commission, ‏June 26, 2019
  67. ^ NíFhaoláin, Labhaoise; Hines, Andrew; Nallur, Vivek (2020). Assessing the Appetite for Trustworthiness and the Regulation of Artificial Intelligence in Europe (PDF). Dublin: Technological University Dublin, School of Computer Science, Dublin. pp. 1–12. (The CC BY 4.0 licence means that everyone have the right to reuse the text that is quoted here, or other parts of the original article itself, if they credit the authors. More info: Creative Commons license) Changes were made as follows: citations removed and minor grammatical amendments.
  68. ^ White paper on artificial intelligence : a European approach to excellence and trust | WorldCat.org, search.worldcat.org (באנגלית)
  69. ^ White Paper on Artificial Intelligence – a European approach to excellence and trust, European Commission, ‏February 19, 2020
  70. ^ Broadbent, Meredith, What’s Ahead for a Cooperative Regulatory Agenda on Artificial Intelligence?, CSIS, ‏March 17, 2021
  71. ^ HEIKKILÄ, MELISSA, POLITICO AI: Decoded: The EU’s AI rules — Finland talks to machines — Facebook’s fairness project, Politico, ‏April 14, 2021
  72. ^ Maquindus, Olorin, On the back of its AI Act, the EU invests in risky software to secure borders, Le Monde, ‏June 23, 2023
  73. ^ Browne, Ryan, Europe takes aim at ChatGPT with what might soon be the West’s first A.I. law. Here’s what it means, CNBC, ‏May 15, 2023
  74. ^ Ponomarov, Kostiantyn, The EU AI Act Overview: What's Coming for Businesses, Legal Nodes, ‏March 20, 2024
  75. ^ Experts react: The EU made a deal on AI rules. But can regulators move at the speed of tech?, Atlantic Council, ‏December 11, 2023
  76. ^ NEW GENERATION OF ARTIFICIAL INTELLIGENCE DEVELOPMENT PLAN, UNODC, ‏2017
  77. ^ Department of International Cooperation Ministry of Science and Technology(MOST), P.R.China, [https://www.mfa.gov.cn/ce/cefi/eng/kxjs/P020171025789108009001.pdf Next Generation Artificial Intelligence Development Plan Issued by State Council], ‏September 15, 2017
  78. ^ Fei Wu, Cewu Lu, Mingjie Zhu, Hao Chen, Jun Zhu, Kai Yu, Lei Li, Ming Li, Qianfeng Chen, Xi Li, Xudong Cao, Zhongyuan Wang, Zhengjun Zha, Yueting Zhuang, Yunhe Pan, Towards a new generation of artificial intelligence in China, Nature Machine Intelligence 2, 2020-06, עמ' 312–316 doi: 10.1038/s42256-020-0183-4
  79. ^ Confino, Paolo, China just gave the world a blueprint for reining in generative A.I. like ChatGPT and Bard, Fortune, ‏July 14, 2023
  80. ^ 1 2 Hiroshima Process International Guiding Principles for Advanced AI system | Shaping Europe’s digital future, digital-strategy.ec.europa.eu, ‏2023-10-30 (באנגלית)
  81. ^ 1 2 Government Bill (House of Commons) C-27 (44-1) - First Reading - Digital Charter Implementation Act, 2022 - Parliament of Canada, www.parl.ca (באנגלית)
  82. ^ 1 2 UNESCO Science Report: the Race Against Time for Smarter Development, unesdoc.unesco.org
  83. ^ 1 2 Australia needs a national approach to AI strategy, Information Age
  84. ^ 1 2 Cure e intelligenza artificiale: la privacy e il rischio dell’algoritmo che discrimina - Il Sole 24 ORE, amp24-ilsole24ore-com.translate.goog
  85. ^ 1 2 Ministry of Science of Spain (2018). "Spanish RDI Strategy in Artificial Intelligence" (PDF). www.knowledge4policy.ec.europa.eu. נבדק ב-9 בדצמבר 2023. {{cite web}}: (עזרה)
  86. ^ 1 2 AI Safety Summit: introduction (HTML), GOV.UK (באנגלית)
  87. ^ 1 2 3 4 5 6 7 8 9 משרד החדשנות, המדע והטכנולוגיה ומשרד המשפטים, עקרונות מדיניות, רגולציה ואתיקה בתחום הבינה המלאכותית, באתר https://www.gov.il/, ‏December 14, 2023
  88. ^ Lilla Farkas, Data collection in the field of ethnicity, EUROPEAN COMMISSION, ‏2017
  89. ^ עמיר כהנא ותהילה שוורץ אלטשולר, אדם, מכונה, מדינה: לקראת אסדרה של בינה מלאכותית, ירושלים: המכון הישראלי לדמוקרטיה, 2023, עמ' 179-202
  90. ^ Amanda Levendowski, How Copyright Law Can Fix Artificial Intelligence's Implicit Bias Problem, 2018
  91. ^ הרשות להגנת הפרטיות, חובת יידוע במסגרת איסוף ושימוש במידע אישי, באתר משרד המשפטים, ‏July 18, 2022
  92. ^ ד"ר ארי אחיעז, פרופ' אסף חמדני, פרופ' דן עמירם, ד"ר קובי קסטיאל בית הספר לניהול והפקולטה למשפטים, אוניברסיטת תל אביב, [https://www.gov.il/BlobFolder/news/ai_report/he/AI_report.pdf בינה מלאכותית במגזר הפיננסי: שימושים נפוצים, אתגרים וסקירה השוואתית של התמודדות רגולטורית], באתר משרד המשפטים, ‏July 18, 2022
  93. ^ Gabriel Nicholas, Explaining Algorithmic Decisions, 2020
  94. ^ גדי פרך, תהילה אלטשולר, מודל ליצירת שקיפות אלגוריתמית, ירושלים: המכון הישראלי לדמוקרטיה, 2022
  95. ^ Bernd Carsten Stahl, Responsible Innovation Ecosystems: Ethical Implications of the Application of .the Ecosystem Concept to Artificial Intelligence, Responsible Innovation Ecosystems: Ethical Implications of the Application of .the Ecosystem Concept to Artificial Intelligence, 2022
  96. ^ Dominique Hogan-Doran, Computer says “no”: automation, algorithms and artificial intelligence in Government decision-making, Handbook for Judicial Officers — Artificial intelligence, ‏October 2021