בשנים האחרונות אנחנו עדים להתקדמות משמעותית בתחום הבינה המלאכותית, כאשר טכנולוגיות ויישומים חדשים מפותחים ומיושמים בקצב מהיר. השימוש באלגוריתמי למידה עמוקה והזמינות של כמויות גדולות של נתונים מאפשרים לבצע משימות מורכבות בדיוק גבוה. התפתחות הבינה המלאכותית הובילה בין היתר ליצירת מכוניות אוטונומיות, רפואה מותאמת אישית, מחוללי טקסטים ותמונות ושיפור שירות הלקוחות באמצעות עוזרים וירטואליים.
בעתיד צפוי פיתוח טכנולוגיות ויישומים מתקדמים עוד יותר, שיש להם פוטנציאל לשנות היבטים רבים בחיינו. אך לצד ההתקדמות הזאת צפים חששות אתיים ודאגות בתחום האבטחה, שכן בינה מלאכותית משמשת יותר ויותר ככלי לקבלת החלטות חשובות בתחומים כמו בריאות, פיננסים ומשפט פלילי. לכן, חשוב לוודא שהפיתוח ואופן השימוש במערכות מסוג זה יהיה אחראי ובטוח.
שימוש אחראי בבינה מלאכותית משמעותו להבטיח כי השימוש בה וביישומיה נעשה מבלי לגרום נזק ליחידים או לחברה. שימוש זה צריך להיות מבוסס על ערכים של הוגנות, שקיפות ופרטיות, ולהיעשות באופן המכבד את זכויות האדם וכבודו.
ראינו בעבר לא מעט דוגמאות לשימוש לא אחראי במערכות מבוססות בינה מלאכותית. ניקח לדוגמא את מערכת הבריאות האמריקאית שמשתמשת באלגוריתמים כדי לקבל החלטות בריאותיות. מחקר מ-2019 שהתפרסם בכתב העת Science זיהה אפליה על רקע גזעי באחד האלגוריתמים. על פי המחקר, האלגוריתם השתמש בעלויות בריאות כפרוקסי לצורך החישוב, מה שהוביל לכך שחולים שחורים זוהו על ידי המערכת כבריאים יותר לעומת חולים לבנים ולכן הם לא קיבלו סיוע נוסף.
דוגמא נוספת ניתן למצוא במחקר מ-2018 שהתפרסם ב-Quarterly Journal of Economics, שבחן אלגוריתם למידת מכונה ששימש לקבלת החלטות בנושא ערבות בתיקים פליליים בניו יורק. מפתחי האלגוריתם העריכו כי הוא יכול להוביל להפחתת הפשיעה ולהורדת שיעורי הכליאה ולצמצום האפליה. ואולם, האופן בו מערכת המשפט השתמשה במערכת הוביל לתוצאות לא אחידות – למשל, המערכת האלגוריתמית לא התייחסה להחלטות שיפוטיות קודמות של אותם שופטים, ולא לקחה בחשבון העדפות משתנות של שופטים.
ישנן דוגמאות רבות לחברות וארגונים שכבר נוקטים פעולות ליישום עקרונות אלו. לדוגמה, IBM פיתחה פלטפורמה לבינה מלאכותית אחראית הכוללת כלים לקבלת החלטות הוגנת ושקופה. בענקית הטכנולוגיה "מתחייבים לעזור לארגונים לאמץ בינה מלאכותית אחראית באמצעות הטמעת עקרונות אתיים ביישומי ותהליכי בינה שיעזרו לבנות מערכות המבוססות על אמון".
גם גוגל פיתחה מסגרת אתית לבינה מלאכותית הכוללת שיקולי פרטיות, ומיקרוסופט הקימה מועצת אתיקה עבור בינה מלאכותית כדי לייעץ בנושאים אתיים הקשורים לשימוש בבינה מלאכותית. הצהרות ומעשים אלו של ענקיות הטכנולוגיה הם צעדים בכיוון הנכון, ויש לוודא שהדברים אכן מיושמים בפועל.
הפוטנציאל לשימוש זדוני במערכות AI, כולל התקפות סייבר והפצת מידע כוזב, מהווה איום משמעותי על יחידים ועל החברה כולה, שכן יישומי בינה מלאכותית מסוגלים להגדיל מאוד את ההשפעה של מתקפות אלו.
מערכות בינה מלאכותית מתמודדות עם מגוון איומי אבטחה, כולל התקפות ישירות או עקיפות. התוקפים יכולים לנסות לתמרן את הקלט או הפלט של מערכות אלו ולבצע מניפולציה של נתונים, באמצעות גניבת מידע רגיש או שימוש לרעה במידע. כשלים במערכת יכולים לגרום להתפשרות באיכות המערכות, מה שיוביל לפגיעה אפשרית ביחידים ובארגונים.
דוגמא לשימוש בבינה מלאכותית במתקפות סייבר ראינו במתקפת Sunburst (SolarWinds) Attacks, מתקפת שרשרת האספקה שהתגלתה בדצמבר 2020. התוקפים השתמשו באלגוריתם AI כדי ליצור "טביעות אצבע" ייחודיות עבור הרשת של כל קורבן, מה שמקשה על זיהוי המתקפה ומעקב אחריה.
סוג נוסף של מתקפה העושה שימוש ב-AI היא מתקפת SamSam Ransomware Attack, במסגרתה התוקפים משתמשים בבינה מלאכותית כדי לזהות מטרות פגיעות ולהתחמק מגילוי על ידי עקיפת אמצעי האבטחה של הקורבן. לאחר מכן, הם משתלטים על הנכסים הדיגיטלים שלו ודורשים כופר בתמורה לשחרורם. סוג זה של מתקפות נצפה לראשונה ב-2018 ומאז השימוש בו הולך וגובר.
מערכות בינה מלאכותית יכולות לשפר את חיינו בתחומים רבים, אך עלינו להבטיח שהשימוש בהן ייעשה באופן אחראי, תוך שמירה על אתיקה ואבטחה. על ידי שמירה על עקרונות אתיים ונקיטת אמצעים לשיפור האבטחה, ניתן יהיה להשתמש במערכות הללו, שממשיכות להתפתח כל הזמן, באופן שיועיל לאנשים ולחברה, תוך הימנעות מהשלכות שליליות.