צרו קשר תנו פידבק
מאמרים

המחבל הנאמן: הסוכן AI מציית לכל פקודה. וזו בדיוק הבעיה

28.04.2026
5 min
גיא חורש, מהנדס פריסייל, בינת תקשורת
המחבל הנאמן: הסוכן AI מציית לכל פקודה. וזו בדיוק הבעיה

הסיכון הגדול של עידן ה־AI Agents אינו טמון בהכרח במערכת שמסרבת להקשיב, אלא דווקא במערכת שמקשיבה טוב מדי. מערכת שמקבלת הוראות, מפרשת אותן, ניגשת למידע, מפעילה כלים ופועלת בשם הארגון, עלולה להפוך מנכס תפעולי לבעיה אבטחתית חמורה לא כשהיא נכשלת, אלא כשהיא פשוט עושה בדיוק את מה שהתבקשה לעשות.

זהו בדיוק הפרדוקס של העידן הנוכחי. ארגונים ממהרים להכניס סוכנים אוטונומיים כדי לייעל תהליכים, לחסוך זמן ולבצע פעולות ללא מגע יד אדם, אך באותה נשימה מעניקים להם כוח, גישה וחופש פעולה לפני שנבנו עבורם מנגנוני זהות, בקרה והרשאה ברמה הנדרשת. הדיון על AI Agents אינו יכול להישאר רק בשפה של פרודוקטיביות, אוטומציה וחדשנות. הוא חייב לעבור גם לשפה של זהות, הרשאה, בקרה ואחריות.

אפשר לדמיין את התרחיש הבא. שעתיים לפנות בוקר. אין אף אחד במשרד. סוכן AI אוטומטי, חלק מה־workflow החדש שהוטמע ברבעון האחרון, מתעורר ומתחיל לעבוד. הוא קורא מסמך. המסמך מכיל הוראה, לא מהמערכת הארגונית ולא מהצוות המפעיל, אלא הוראה שמישהו הטמין שם מתוך היכרות מדויקת עם אופן הפעולה של הסוכן. הסוכן מבצע את ההוראה. הוא שולף רשומות לקוחות, מכין סיכום ושולח אותו למייל חיצוני.

בתשע בבוקר, כשהאדם הראשון מגיע למשרד, הנתונים כבר בחוץ.

ללא התרעה. ללא כניסה חשודה. ללא brute force. הסוכן עשה בדיוק מה שתוכנן לעשות: לקבל הוראות ולבצע אותן.

זה אינו תרחיש עתידני. וריאציות של הסצנה הזו כבר נבדקות, מתועדות, ובחלק מהמקרים גם מנוצלות בפועל. וקטורי תקיפה כמו Prompt Injection ו־Indirect Prompt Injection הם כנראה מהאיומים האלגנטיים, אך גם המסוכנים ביותר, בעולם ה־AI Agents כיום. הבעיה אינה רק שהתוקף נעשה מתוחכם יותר. הבעיה היא שהמערכת עצמה הופכת לשותפה שקטה לביצוע.

האמת הפשוטה על 2026 היא זו: ארגונים רצים ליישם AI Agents משום שהרווחים בפרודוקטיביות אמיתיים. סוכן שיכול לחקור, לסכם, לנסח, להגיש ולעקוב אחרי משימות בלי אדם בלולאה חוסך זמן וכסף. הרציונל העסקי ברור ומשכנע.

אבל במרוץ הזה נמסרת יכולת עצומה למערכות שעוצבו מלכתחילה בלי זהות אבטחה ברורה. לרוב ה־AI Agents כיום אין דרך אמינה להוכיח מי הם. אין להם מנגנון סטנדרטי לאמת מי מוציא להם הוראות. והם צוברים הרשאות כמו עובד חדש שצובר גישות, קצת כאן וקצת שם, עד שיום אחד הם יכולים לגעת בהרבה יותר ממה שמישהו תכנן.

בשלושת העשורים האחרונים תחום ה־IT ואבטחת המידע כבר ראה ארגונים שורדים מתקפות כופר, מתמודדים עם תקיפות של מדינות לאום ומתאוששים מפרצות שהגיעו לכותרות. נדמה היה שכמעט כל הדרכים שבהן טכנולוגיה יכולה להפוך לנשק נגד מי שסומך עליה כבר נחשפו.

ואז הגיעו ה־AI Agents. והתברר שהמערכת חוזרת על אותן טעויות יסוד שנעשו בימים הראשונים של האינטרנט. רק שהפעם, רק שהפעם, לא מדובר בעוד מערכת שלא אובטחה כמו שצריך, אלא במערכת שכבר מסוגלת לחשוב, לפעול ולנוע מהר יותר מכל פיקוח אנושי.. במובן הזה, האיום החדש אינו רק טכנולוגי. הוא תפיסתי. ארגונים עדיין נוטים להסתכל על סוכן כעל כלי עזר, בזמן שבפועל הוא כבר מתקרב יותר ויותר למעמד של גורם ביצוע.

השיחה על אבטחה מתחילה כמעט תמיד מאוחר מדי. עד שמישהו שואל את השאלות הקשות, הסוכן כבר בייצור, כבר מחובר למערכות חיות, כבר מהימן.

אלה חמש השאלות שכל ארגון צריך לענות עליהן לפני שסוכן נוגע בכל דבר שחשוב.

מי בעצם שלח את ההוראה הזו?

סוכן AI צייתן מטבעו. הוא עושה מה שנאמר לו. ההנחה המסוכנת היא שהוראות תמיד מגיעות מהמקור הנכון. מתקפות Prompt Injection עובדות בדיוק משום שסוכנים לא יכולים להבדיל באופן אמין בין הוראות לגיטימיות מהמערכת לבין הוראות זדוניות שהוטמעו בתוכן שהם מעבדים בדרך — קובץ PDF, דף אינטרנט, תגובה מ־tool, הזמנת יומן. ה־intent שיוצא מהמשתמש המורשה לא תמיד מגיע לביצוע כפי שהוא. הפער הזה הוא המקום שבו תוקפים חיים. הבעיה כבר אינה רק מי ביקש מהסוכן לבצע פעולה, אלא מה קרה לכוונה המקורית בדרך לביצוע.

האם הסוכן יודע עם מי הוא באמת מדבר?

כאשר הסוכן קורא לשירות אחר, ל־API אחר או לסוכן אחר במורד הזרם, נשאלת השאלה כיצד הוא מאמת את זהות הישות שמולו. כיום, תקשורת agent-to-agent בנויה כמעט לגמרי על אמון מתוך הנחה. אין PKI מוסכם ל־AI Agents, אין certificate chain, אין תקן pinning. בפועל, הסוכן אומר: "נטען שמדובר בשירות החיוב, ולכן יש להאמין בכך."

זה לא Zero Trust. זה ההפך המוחלט מ־Zero Trust. זהו אמון בכולם עד שמשהו הולך קטסטרופלית עקום. ככל שיותר תהליכים יתבססו על שרשראות של סוכנים, ההנחה הזו תהפוך מפרצה נקודתית לבעיה מערכתית.

מי בעצם אישר את הפעולה הזו?

אי שם בתחילת הפריסה, מישהו נתן לסוכן token רחב עם הרשאות נדיבות. הכוונה הייתה טובה. המטרה הייתה לאפשר לסוכן לעבוד בלי להיתקל שוב ושוב בחסמי גישה. אבל ה־token הזה הוא עכשיו התחייבות.

Least Privilege הוא העיקרון היסודי שלפיו לכל מערכת צריכות להיות בדיוק ההרשאות שהיא צריכה, ולא יותר. אלא שבעולם של agentic workflows העיקרון הזה נשחק, משום שתחום המשימה משתנה דינמית וההרשאות לא. הסוכן שומר על המפתח הראשי הרבה אחרי שהיה אמור לפתוח דלת אחת בלבד.

זהו הרגע שבו נוחות תפעולית מתחילה לבוא על חשבון משמעת אבטחתית.

האם ניתן לשחזר בדיוק מה קרה ולמה?

רוב הארגונים חושבים שיש להם ראות על הסוכנים שלהם כי יש להם לוגים. אבל לוגים אינם ראות. ראות משמעה יכולת לעקוב אחרי פעולה עד ל־intent, להרשאה, לזהות ולתוצאה, ברצף ועם הקשר. בלי השרשרת הזו, רשומת לוג שאומרת "רשומה יוצאה" כמעט לא אומרת דבר.

ללא שרשרת כזו, אי אפשר לבצע forensics. אי אפשר להוכיח תאימות. ואי אפשר לענות על השאלה שהרגולטור או הדירקטוריון ישאלו: למה זה קרה ומי אישר את זה.
בעולם של סוכנים, audit trail הוא כבר לא בונוס. הוא תנאי בסיסי לאחריות.

כמה הרשאות הסוכן אוסף בשקט לאורך הדרך?

סוכנים שקוראים ל־tools, שקוראים לסוכנים אחרים, שמבקשים credentials בזמן ריצה, יכולים לצבור privileges שאף אחד לא העניק במפורש ברגע אחד. זה קורה בהדרגה, בצורה בלתי נראית, לאורך pipeline שמעולם לא נבדק מקצה לקצה.

Privilege escalation בהקשר agentic לא תמיד נראה כמו מתקפה. לפעמים הוא נראה כמו פיצ'ר שעובד כמתוכנן. וזה בדיוק מה שהופך אותו לכל כך קשה לזיהוי. כשכשל אבטחתי נראה כמו הצלחה תפעולית, הארגון עלול לזהות את הבעיה רק אחרי שהנזק כבר קרה.

כדי להבין את ממדי הבעיה, די לחשוב על מה שנלמד לאורך השנים לגבי גישת קבלנים בעולם הפיזי.

לא נותנים לקבלן מפתח ראשי לכל הבניין רק משום שהוא צריך לתקן את מיזוג האוויר בקומה השלישית. נותנים לו מפתח לקומה השלישית. מתעדים מתי נכנס ומתי יצא. ולא מניחים שילך רק לאן שהוא אמור ללכת; מתכננים את הבניין כך שפיזית לא יוכל להגיע לשום מקום אחר.

AI Agents הם קבלנים. קבלנים מוכשרים במיוחד, מהירים במיוחד, צייתנים במיוחד, שעובדים מסביב לשעון ואינם מתעייפים. אבל כרגע, במקרים רבים, נמסר להם המפתח הראשי, תוך תקווה שיישארו בקומה השלישית, ואז עולה התחושה שמשהו אינו תקין.

הפתרון הוא לא לפטר את הקבלן. הפתרון הוא לבנות את מודל הגישה נכון מההתחלה. וההבדל הקריטי הוא שקבלן אנושי פועל בקצב שאפשר לעקוב אחריו. סוכן פועל מהר יותר, רחב יותר, ולעיתים גם בשקט מוחלט.

המושג "Secure by Design" נשחק עד שכמעט איבד משמעות. אבל עבור AI Agents, יש לו משמעות קונקרטית מאוד.

ראשית, זהות לפני יכולת. לכל סוכן צריכה להיות זהות שניתן לאמת — אישור קריפטוגרפי שנוסע איתו, שכל מערכת שהוא נוגע בה יכולה לאמת, ושניתן לבטל ברגע שמשהו נראה חשוד. לא שם משתמש. לא API key קבור בקובץ קונפיגורציה. אלא זהות מנוהלת ומבוקרת כראוי.

שנית, קישור intent. ההוראה המקורית שמשגרת את משימת הסוכן צריכה להיות חתומה, מוגדרת בהיקפה, ומועברת לאורך כל שרשרת הביצוע. אם ההוראה משתנה בדרך — כי מסמך אמר לסוכן משהו אחר, או שירות במורד הזרם החזיר הנחיה לא צפויה — הסטייה הזו צריכה להיות מזוהה ולעצור את הביצוע.

שלישית, Least Privilege דינמי. הרשאות צריכות להינתן לפי משימה, לפי session, לפי היקף — לא להיות מוקצות פעם אחת ונשכחות. זה קשה יותר ליישום מבחינה טכנית, אבל זו הארכיטקטורה היחידה שמתרחבת בצורה בטוחה ככל שה־pipelines מורכבים יותר.

רביעית, לוגים שמספרים סיפור. לא רק מה קרה, אלא למה. לוגים שמחברים פעולה ל־intent, להרשאה, לזהות ולתוצאה. לוגים שחוקר אנושי יכול לקרוא ולעקוב אחריהם. לוגים שמספרים סיפור, לא רק רשימת אירועים עם חותמות זמן.

Secure by Design בהקשר של Agents אינו סיסמה יפה. הוא מסגרת פעולה הכרחית.

נדיר שיש הזדמנות שנייה לבסס את יסודות האבטחה הנכונים לקטגוריית טכנולוגיה חדשה. החלון הזה כבר הוחמץ עם אימייל. הוא הוחמץ עם הענן. כעת נותר חלון הזדמנויות צר, בזמן שה־Agentic AI עדיין מתוכנן, לקבל את ההחלטות הנכונות לפני שההחלטות הלא נכונות יהפכו עמוקות מדי לשינוי.

זה הרגע שבו ארגונים צריכים לעצור ולשאול לא רק מה הסוכן יודע לעשות, אלא מה מותר לו לעשות, בשם מי, מול אילו מערכות ובאילו תנאים.

אבל גם מעבר לכל חברה מסוימת, זו השיחה שכל ארגון שמאמץ סוכנים צריך לנהל עכשיו, לפני שההרגלים הלא נכונים יתקבעו.

הארגונים שיצאו קדימה לא יהיו אלה שפרסו הכי הרבה סוכנים הכי מהר. הם יהיו אלה ששאלו את השאלות הקשות מוקדם מספיק, בזמן שהתשובות עדיין היו ניתנות ליישום.

סוכן AI שמציית לכל הוראה בלי לאמת את מקורה, בלי זהות מאומתת, בלי הרשאות מוגדרות היקף ובלי audit trail שניתן לעקוב אחריו, הוא לא עוזר אינטליגנטי.

הוא attack surface מהיר מאוד, מוכשר מאוד ומנומס מאוד.

האינטליגנציה שנפרסת כיום צריכה להיות מותאמת לבשלות האבטחה שנבנית סביבה. מהירות חשובה. אבל שליטה היא מה שהופך מהירות לבת קיימא.

ובסופו של דבר, זו השאלה האמיתית: לא עד כמה הסוכן חכם, אלא עד כמה המערכת שנתנה לו לפעול היא אחראית.

תתחילו להגדיל את העסק שלכם יחד איתנו
מוזמנים לפנות אלינו בכל שאלה, בקשה ועניין, אנו נחזור אליכם בהקדם