אתיקה של בינה מלאכותית

מתוך ויקיפדיה, האנציקלופדיה החופשית
קפיצה לניווט קפיצה לחיפוש
אריסטו: אתיקה, פוליטיקה וכלכלה

אתיקה של בינה מלאכותית עוסקת במחשבים שיכולים לעשות שיקולים מוסריים. זהו תחום מחקר בבינה מלאכותית. אדם יכול להעניק למחשב את הקוד האתי ישירות באמצעות כתיבת קוד, או בעקיפין על ידי קריאה, או שהמחשב יסיק את הקוד הזה מתוך רשימה של חוקים קיימים [1].

בעוד שהתקשורת עם בני אדם היא פשוטה וצפויה יחסית, התקשורת בין מערכות אוטונומיות לומדות יכולה להוביל לשגיאות גדולות. אלגוריתמים עשויים ללמוד זה מזה ולהפיק תובנות שאינן תמיד תואמות את כוונת המתכנתים המקורית.

הסוד האפל של הבינה המלאכותית, TheMarker, רותי לוי 10 בינואר 2019

לפי קווי היסוד של נציבות האיחוד האירופי לבינה מלאכותית אמינה יש שלושה מרכיבים שצריכים להתקיים לאורך כל מחזור החיים שלה[2]:

  1. עליה להיות חוקית, לציית לכל החוקים והתקנות הרלוונטיים;
  2. עליה להיות אתית, לדבוק בעקרונות ובערכים אתיים;
  3. עליה להיות איתנה, הן מבחינה טכנית והן מבחינה חברתית, שכן מערכות אינטליגנציה מלאכותית יכולות לגרום נזק בלי להתכוון לכך.

תְּחוּם הדַּעַת שעוסק באתיקה של הבינה המלאכותית, במיוחד כשמדובר בבינה מלאכותית חזקה שונה באופן מהותי מתחום הדעת שעוסק באתיקה של טכנולוגיות לא-קוגניטיביות. להלן ההבדלים בין שני התחומים האלה[3]:

  • אפילו אם המתכנתים עושים הכל נכון, ייתכן שלא ניתן יהיה לחזות את ההתנהגות הספציפית של מערכת הבינה המלאכותית, מלבד העובדה שההתנהגות הזאת תהיה בטיחותית;
  • בדיקת בטיחות המערכת הופכת לאתגר גדול ביותר, שכן עלינו לברר מה בדיוק המערכת מנסה לעשות ולא רק שהיא מתנהלת באופן בטיחותי בכל המצבים;
  • ההכרה האתית הופכת להיות נושא שהמהנדסים עוסקים בו.

אלגוריתמים והשפעתם על חיי היומיום[עריכת קוד מקור | עריכה]

Postscript-viewer-shaded.png ערך מורחב – אלגוריתמים

אלגוריתמים הם שיטה לפתרון בעיות צעד אחר צעד. אלגוריתמים משמשים בעיבוד נתונים, עריכת חישובים ופעולות מתמטיות נוספות. אלגוריתמים משמשים גם כדי לתפעל נתונים בדרכים שונות, כגון הוספת נתון חדש, חיפוש פריט ומיון[4].

אלגוריתמים משמשים בתחומים רבים בחיי יומיום, למשל - אלגוריתם למיון כביסה[5]:

  1. הרם בגד מערימת הבגדים
  2. בחן את הצבע
  3. שורת תנאי: אם הבגד צבעוני הנח אותו בערימה מספר 1
  4. אם הבגד שחור הנח אותו בערימה מספר 2
  5. אם הבגד לבן הנח אותו בערימה מספר 3
  6. חזור על הפעולה כל עוד יש בגדים בערימה

אלגוריתמים מצויים בכל פעולות המחשבים והטלפונים. רובם מורכבים משרשרות מסובכות וארוכות של הוראות, עד כדי כך שקשה לעקוב אחר ההגיון שלהן ולא תמיד ניתן להסביר את פעולותיהן.

דוגמה[6]:

כאשר אנחנו קונים מוצר או מזמינים שירות באינטרנט מערכות מחליטות אם לאשר את הרכישה שלנו בהתבסס על אלגוריתמים לומדים. האלגוריתמים האלה לומדים אלו אוכלוסיות נוטות יותר לבצע הונאות אשראי ואלו לא. הם יוצרים הכללה של אוכלוסיות שנוטות יותר לבצע הונאות, ומונעים מהן לבצע עסקאות. כמו שאמר לי אנליטסט הונאות בכיר באחת מחברות הקניות הגדולות בעולם: "היו מקרים שהמערכת החליטה לא למכור למדינה שלמה, לניגריה למשל". לכן, ייתכן שגם אזרח ניגרי תמים לא יוכל לקנות חולצה עם הדפס של להקת הפאנק האהובה עליו, כי "האלגוריתם לא מאשר".

תחום רשתות הנוירונים המלאכותיות תופס חלק גדל והולך של ה"בינה מלאכותית". מכיוון שרשתות אלו לא מממשות אלגוריתמים דטרמיניסטיים ולמעשה, אין "ידע הרמטי" לגבי האופן שבו הן מצליחות לבצע משימות מורכבות, לא תמיד ניתן להסביר איך הן הגיעו לתוצאה כזו ולא לתוצאה אחרת. תחום זה מהווה תחום מחקר מהותי ואולם לא ברור אם יהיה לו פתרון. ככל שהשימוש ברשתות הנוירונים המלאכותיות הופך להיות נפוץ יותר, התופעה ולפיה הן "מקדדות" לעצמן את העיוותים הקוגניטיביים-חברתיים הקיימים, הולכת ומחריפה. נושא זה במיוחד משמעותי בכל הקשור ללמידה מונחית כאשר "התנהגותה" של הרשת נקבעת לפי בסיס הנתונים ששימש לאימון שלה. כך למשל, אם הרשת אומנה לתת תחזית לגבי סיכוייו של סטודנט מסוים לסיים את התואר באוניברסיטה, על בסיס רשימת כל הסטודנטים בשני העשורים האחרונים באוניברסיטה מסוימת - מכיוון שכיום יש יותר סטודנטים ממין זכר, הרשת באופן אוטומטי, תיטה לתת תחזיות מוטות "לטובת" המין הגברי ו"תופעה" כזו אינה רצויה חברתית[דרושה הבהרה].

בינה מלאכותית שוחרת-טובת-האדם[עריכת קוד מקור | עריכה]

יש בבינה המלאכותית תכונות חיוביות לרוב[7]:

  • פיתוח כלי תחבורה אוטונומיים שעתידים לייעל את התחבורה לסוגיה ולצמצם את תאונות הדרכים.
  • דמוקרטיזציה והחבבנות, כלומר הפצת מידע, נתונים וכוח מיחשוב לכל דורש, חינם ובאופן נגיש.
  • קידום המחקר בפיזיקה ובמתמטיקה.
  • שיפור השרות הרפואי והוזלתו.

פיי-פיי לי היא פרופסור למדעי המחשב באוניברסיטת סטנפורד וכיום מנהלת שותפה של המכון לבינה מלאכותית ממוקדת-אדם בסטנפורד. לדבריה המכון מתמקד בכיווני מחקר חדשניים[8]:

  • פיתוח לימודי בינה מלאכותית שניתנת להבנה (לפרשנות) בידי אדם (Explainability AI) - כלומר יצירת תוכנות שמסבירות את האלגוריתמים ומתאימות אותם לאופן החשיבה של בני אדם.
  • פיתוח שיעמיק לחקור לא רק נתונים אלא גם אינטואיציה, ידע, אינטליגנציה אנושית.
  • שילוב של דיסציפלינות שונות במחקר הבינה המלאכותית - פילוסופים, היסטוריונים, אנשי מדעי המדינה, כלכלנים, אנשי אתיקה, אנשי משפט, חוקרי מוח, פסיכולוגים וחוקרים בתחומים רבים נוספים - כדי להבין את ההשפעה שלה על חברת בני האדם מכל הבחינות.

בינה מלאכותית ברמת האדם היחיד[עריכת קוד מקור | עריכה]

לדברי יובל נוח הררי[8] בינה מלאכותית יכולה לאפשר תקיפת-מוח (brain hacking), כאשר יותר ויותר החלטות בחיים שלנו ייעשו על ידי אלגוריתמים, שכן הם יכירו את האדם טוב יותר מההכרות שלו את עצמו. לדבריו, כדי למנוע זאת עליך להכיר את עצמך יותר טוב, כך שיהיה יותר קשה לרמות אותך באמצעות מכונות. הררי מציע לפתח מערכות שמעניקות הגנה לאנשים ולא לממשלות ולא לחברות מסחריות. כל אחת ואחד מאיתנו צריכים מכונה כזאת – בת לווייה - שתפקידה להכיר את הבעלים שלה באופן אישי ביותר ולהגן עליה או עליו.

הסכנה שבבינה המלאכותית מצד תעשיית המידע[עריכת קוד מקור | עריכה]

יוחאי בנקלר מתאר[9] כיצד חברות המידע - גוגל, פייסבוק, אמזון, מיקרוסופט, אפל - מפתחות מוצרים של בינה מלאכותית, כשהאינטרס שלהן הוא השגת רווחים. אלגוריתמים בהכרח אינם תואמים את האינטרס הציבורי כאשר הם מיועדים אך ורק לייצר רווח לחברה המסחרית.

בתוך הקופסה השחורה של האלגוריתמים יכולה להתקיים אפליה בלתי נראית ובלתי ניתנת לתיאור. כיוון שהנתונים ניצברו לאורך השנים ובשל העובדה שהם משקפים אי-שוויון חברתי, קיימת אפשרות סבירה שנתונים אלה ינציחו מצב של אי-צדק שלא תהיה דרך לפענח את מקורו. לדוגמה, מערכות שחוזות עבריינות חוזרת עלולות לשלב שיטור נוקשה במיוחד בקהילות של שחורים. דוגמה נוספת: מערכות שמדרגות הצלחה של מועמדים לתפקיד כלשהו עלולות להפלות על בסיס מגדר או גיל. תופעה זו מחריפה ככל שתפוצת רשתות הנוירונים המלאכותיות עולה, בכלל, ונושא הלמידה מונחית בפרט.

הסכנה שבבינה המלאכותית בתחום המדיני[עריכת קוד מקור | עריכה]

יובל נוח הררי מזהיר מפני שני סוגים של דיסטופיות כתוצאה מפיתוחים בתחום הבינה המלאכותית[8]. אחת – קפיטליזם מעקבאנ שבו אלגוריתמים יעשו עבורנו לא רק החלטות כגון מה לקנות או איפה לאכול אלא החלטות חשובות כגון איפה לעבוד, עם מי להתחתן ולמי להצביע. והשנייה - משטר טוטליטרי, שמבוסס על מערכת פיקוח שעוקבת ומדווחת אחרי כל אזרח כל הזמן.

בתחום היחסים בין מדינות קיימת סכנה של האצת מרוץ החימוש, מאחר שיותר ויותר מדינות מגיעות להבנה שבינה מלאכותית היא האמצעי להשיג שליטה במאה ה-21 וכולן ממהרות לפתח אלגוריתמים מורכבים שיכולים להיות זדוניים.

דרכי הגנה מפני איומי הבינה המלאכותית[עריכת קוד מקור | עריכה]

  1. נדרשת השקעה ציבורית מוגברת במחקר עצמאי בתחום האתיקה של הבינה המלאכותית[9].
  2. יש צורך בשיתוף פעולה בינלאומי, כדי להגביר את האמון בין ארצות ועמים[8].
  3. סטודנטים לתכנות צריכים ללמוד קורסים באתיקה[8].[10]
  4. יש לחשוף לציבור את הנתונים שנמצאים בידי החברות המסחריות[9].
  5. ארגונים הפועלים על מנת להבטיח כי מערכות של אינטליגנציה מלאכותית יתנהלו בהוגנות ויועילו לחברה חייבים להיות ממומנים על ידי הציבור, בכפוף לביקורת עמיתים ושקופים לחברה האזרחית[9].

לקריאה נוספת[עריכת קוד מקור | עריכה]

  • שושנה זובוף The Age of Surveillance Capitalism The Fight for a Human Future at the New Frontier of Power, 2019
  • Cathy O'Neil, Weapons of Math Destruction How Big Data Increases Inequality and Threatens Democracy, 2016

הערות שוליים[עריכת קוד מקור | עריכה]