צרו קשר תנו פידבק
מאמרים

כולם מדברים על AI, אף אחד לא מדבר על אתיקה

לצד ההתקדמות המטאורית של מערכות ה-AI, חששות אתיים ובטחוניים משימוש לרעה בטכנולוגיות בינה מלאכותית מטילים צל כבד על החגיגה. ענקיות הטכנולוגיה כבר התחייבו להבטיח שימוש אחראי במערכות אלו, אבל מה לגבי כל היתר?

5.03.2023
3 min
גיא חורש, מהנדס פריסייל בבינת תקשורת
כולם מדברים על AI, אף אחד לא מדבר על אתיקה

בשנים האחרונות אנחנו עדים להתקדמות משמעותית בתחום הבינה המלאכותית, כאשר טכנולוגיות ויישומים חדשים מפותחים ומיושמים בקצב מהיר. השימוש באלגוריתמי למידה עמוקה והזמינות של כמויות גדולות של נתונים מאפשרים לבצע משימות מורכבות בדיוק גבוה. התפתחות הבינה המלאכותית הובילה בין היתר ליצירת מכוניות אוטונומיות, רפואה מותאמת אישית, מחוללי טקסטים ותמונות ושיפור שירות הלקוחות באמצעות עוזרים וירטואליים.

בעתיד צפוי פיתוח טכנולוגיות ויישומים מתקדמים עוד יותר, שיש להם פוטנציאל לשנות היבטים רבים בחיינו. אך לצד ההתקדמות הזאת צפים חששות אתיים ודאגות בתחום האבטחה, שכן בינה מלאכותית משמשת יותר ויותר ככלי לקבלת החלטות חשובות בתחומים כמו בריאות, פיננסים ומשפט פלילי. לכן, חשוב לוודא שהפיתוח ואופן השימוש במערכות מסוג זה יהיה אחראי ובטוח.

מהי בינה מלאכותית אתית?

שימוש אחראי בבינה מלאכותית משמעותו להבטיח כי השימוש בה וביישומיה נעשה מבלי לגרום נזק ליחידים או לחברה. שימוש זה צריך להיות מבוסס על ערכים של הוגנות, שקיפות ופרטיות, ולהיעשות באופן המכבד את זכויות האדם וכבודו.

ראינו בעבר לא מעט דוגמאות לשימוש לא אחראי במערכות מבוססות בינה מלאכותית. ניקח לדוגמא את מערכת הבריאות האמריקאית שמשתמשת באלגוריתמים כדי לקבל החלטות בריאותיות. מחקר מ-2019 שהתפרסם בכתב העת Science זיהה אפליה על רקע גזעי באחד האלגוריתמים. על פי המחקר, האלגוריתם השתמש בעלויות בריאות כפרוקסי לצורך החישוב, מה שהוביל לכך שחולים שחורים זוהו על ידי המערכת כבריאים יותר לעומת חולים לבנים ולכן הם לא קיבלו סיוע נוסף.

דוגמא נוספת ניתן למצוא במחקר מ-2018 שהתפרסם ב-Quarterly Journal of Economics, שבחן אלגוריתם למידת מכונה ששימש לקבלת החלטות בנושא ערבות בתיקים פליליים בניו יורק. מפתחי האלגוריתם העריכו כי הוא יכול להוביל להפחתת הפשיעה ולהורדת שיעורי הכליאה ולצמצום האפליה. ואולם, האופן בו מערכת המשפט השתמשה במערכת הוביל לתוצאות לא אחידות – למשל, המערכת האלגוריתמית לא התייחסה להחלטות שיפוטיות קודמות של אותם שופטים, ולא לקחה בחשבון העדפות משתנות של שופטים.

עקרונות מרכזיים באתיקה של בינה מלאכותית

  • בינה מלאכותית אתית צריכה לשמור בראש ובראשונה על שקיפות – כלומר תהליכי קבלת ההחלטות של מערכות אלו צריכים להיות מובנים בקלות למשתמשים ולרגולטורים.
  • עיקרון חשוב נוסף הוא הוגנות, כלומר הבטחה שמערכות בינה מלאכותית אינן מפלות קבוצות מסוימות, ושהן מקבלות החלטות על סמך מידע רלוונטי וחסר-פניות.
  • האחראים לפיתוח מערכות בינה מלאכותית צריכים לנהוג באחריות ואַחְרָיוּתִיוּת (Accountability), כלומר להיות אחראים למעשיהם.
  • לבסוף, יש לשמור על פרטיות המשתמשים, המבטיחה שהנתונים האישיים שלהם מוגנים ומשתמשים בהם בהתאם לחוקים ולתקנות הפרטיות.

כיצד עקרונות אלו מיושמים בשוק

ישנן דוגמאות רבות לחברות וארגונים שכבר נוקטים פעולות ליישום עקרונות אלו. לדוגמה, IBM פיתחה פלטפורמה לבינה מלאכותית אחראית הכוללת כלים לקבלת החלטות הוגנת ושקופה. בענקית הטכנולוגיה "מתחייבים לעזור לארגונים לאמץ בינה מלאכותית אחראית באמצעות הטמעת עקרונות אתיים ביישומי ותהליכי בינה שיעזרו לבנות מערכות המבוססות על אמון".

גם גוגל פיתחה מסגרת אתית לבינה מלאכותית הכוללת שיקולי פרטיות, ומיקרוסופט הקימה מועצת אתיקה עבור בינה מלאכותית כדי לייעץ בנושאים אתיים הקשורים לשימוש בבינה מלאכותית. הצהרות ומעשים אלו של ענקיות הטכנולוגיה הם צעדים בכיוון הנכון, ויש לוודא שהדברים אכן מיושמים בפועל.

אילו איומים חדשים מביא ה-AI לעולם הסייבר?

הפוטנציאל לשימוש זדוני במערכות AI, כולל התקפות סייבר והפצת מידע כוזב, מהווה איום משמעותי על יחידים ועל החברה כולה, שכן יישומי בינה מלאכותית מסוגלים להגדיל מאוד את ההשפעה של מתקפות אלו.

מערכות בינה מלאכותית מתמודדות עם מגוון איומי אבטחה, כולל התקפות ישירות או עקיפות. התוקפים יכולים לנסות לתמרן את הקלט או הפלט של מערכות אלו ולבצע מניפולציה של נתונים, באמצעות גניבת מידע רגיש או שימוש לרעה במידע. כשלים במערכת יכולים לגרום להתפשרות באיכות המערכות, מה שיוביל לפגיעה אפשרית ביחידים ובארגונים.

דוגמא לשימוש בבינה מלאכותית במתקפות סייבר ראינו במתקפת Sunburst (SolarWinds) Attacks, מתקפת שרשרת האספקה שהתגלתה בדצמבר 2020. התוקפים השתמשו באלגוריתם AI כדי ליצור "טביעות אצבע" ייחודיות עבור הרשת של כל קורבן, מה שמקשה על זיהוי המתקפה ומעקב אחריה.

סוג נוסף של מתקפה העושה שימוש ב-AI היא מתקפת SamSam Ransomware Attack, במסגרתה התוקפים משתמשים בבינה מלאכותית כדי לזהות מטרות פגיעות ולהתחמק מגילוי על ידי עקיפת אמצעי האבטחה של הקורבן. לאחר מכן, הם משתלטים על הנכסים הדיגיטלים שלו ודורשים כופר בתמורה לשחרורם. סוג זה של מתקפות נצפה לראשונה ב-2018 ומאז השימוש בו הולך וגובר.

איך מונעים מתקפות סייבר (על רגל אחת)

  • ראשית, יש לאחסן את הנתונים באופן מאובטח.
  • שנית, יש להשתמש במנגנוני הצפנת מידע ואלגוריתמים חזקים ועמידים בפני התקפות.
  • שלישית, יש ליישם מערכות ניטור המזהות איומי אבטחה ומגיבות להם בזמן אמת.

לסיכום

מערכות בינה מלאכותית יכולות לשפר את חיינו בתחומים רבים, אך עלינו להבטיח שהשימוש בהן ייעשה באופן אחראי, תוך שמירה על אתיקה ואבטחה. על ידי שמירה על עקרונות אתיים ונקיטת אמצעים לשיפור האבטחה, ניתן יהיה להשתמש במערכות הללו, שממשיכות להתפתח כל הזמן, באופן שיועיל לאנשים ולחברה, תוך הימנעות מהשלכות שליליות.

תתחילו להגדיל את העסק שלכם יחד איתנו
מוזמנים לפנות אלינו בכל שאלה, בקשה ועניין, אנו נחזור אליכם בהקדם