AI הצליח לגלות Zero Day, ומנהלי האבטחה צריכים להתכונן לגל התקיפות שיגיע
צוות האבטחה של גוגל גילה לאחרונה באמצעות מודל Big Sleep פגיעות Zero Day שלא התגלתה בשיטות אחרות, ויש לכך השפעה על כל מערך האבטחה בארגונים
מאת: חגית גואל
בנובמבר האחרון פרסם צוות האבטחה של גוגל כי מערכת לגילוי פגיעויות המופעלת על ידי בינה מלאכותית זיהתה לראשונה "Zero Day" בתוכנה בשימוש נפוץ. הגילוי הזה מראה ומדגיש את מידת הסיכונים המופעלים על ידי בינה מלאכותית ומהווה קריאה למנהלי האבטחה להתכונן כראוי למתקפות שצפויות להגיע.
מה בעצם קרה? חוקרי גוגל השתמשו במודל הבינה המלאכותית Big Sleep כדי לזהות פגיעות בבטיחות זיכרון (stack buffer underflow) במנוע מסד הנתונים SQLite – המשולב במיליוני מכשירים ויישומים. כידוע, SQLite מבוסס קוד פתוח ותופס חלק חשוב בשרשרת האספקה של תוכנה עבור מסדי נתונים. התוצאה: Big Sleep זיהה פגיעות קריטית בקוד, פגם שלא התגלה בשיטות קונבנציונליות, ובמזל זה קרה לפני שנוצר נזק רחב היקף.
לא רק כלים חכמים
ההשלכות עבור מנהלי אבטחת מידע הן משמעותיות ומיידיות: בינה מלאכותית תשמש לגילוי Zero Day, הן על ידי ארגונים והן על ידי תוקפים. על כן מתבהרת החשיבות של מערך האבטחה המורכב מאמצעי אבטחה מוטמעים ומכווננים בליבת הארגון. כך ניתן להתמודד עם האיומים משתי זוויות: פריסת הגנות המופעלות על ידי AI כדי להתמודד עם האבולוציה המהירה של סיכוני אבטחה; ושנייה, הבטחה שמסגרות האבטחה הקיימות מחוזקות ויכולות להשתלב ביכולות החדשות הללו. אך עליית האיומים של הבינה המלאכותית אינה דורשת רק כלים חכמים יותר, היא דורשת גם כיסוי מקיף ואוטומציה כדי למזער שגיאות אנושיות.
מודלי שפה גדולים (LLM) המטפלים בקידוד ובניתוח קוד משתפרים במהירות, וזמינים גם בתחום הקוד הפתוח. תוקפים שמו לב לכך וכיום הם מחפשים באופן פעיל כיצד לנצל את הבינה המלאכותית כדי לפגוע במערכות. חשוב שמנהלי אבטחת מידע ישימו לב לכמה גורמים מרכזיים:
יכולות בינה מלאכותית מתקדמות: מודלי בינה מלאכותית מודרניים, ובפרט LLM, הראו שליטה בניתוח בסיסי קוד מורכבים כדי לזהות פגיעויות לא ידועות בעבר. פרויקט Big Sleep הוא דוגמה טובה לפוטנציאל של הבינה המלאכותית באמצעי אבטחה יזומים.
אוטומציה ויעילות: כלים המופעלים על ידי AI יכולים לבצע אוטומציה של תהליך גילוי הפגיעויות,ולזהות אותן בקצב שאינו ניתן להשגה באמצעות שיטות ידניות בלבד. השימוש של GreyNoise Intelligence בבינה מלאכותית כדי לגלות פגיעויות "Zero Day" במצלמות סטרימינג חי מדגים יכולת זו.
הבנה סמנטית טובה יותר: מודלי בינה מלאכותית יכולים לנתח קוד עם הבנה עמוקה יותר של הקשר, הכוונה ותפקוד, ולחשוף פגיעויות ששיטות מסורתיות עלולות להתעלם מהן. תובנה סמנטית זו מאפשרת ל-AI לזהות לא רק שגיאות קידוד ברורות, אלא גם פגמים לוגיים עדינים, בעיות תצורה ופערי אבטחה שניתן לנצל. לדוגמה, OpenAI Codex הדגים את היכולת למצוא חולשות אבטחה עדינות על ידי פרשנות ההתנהגות המיועדת של תוכנית מול היישום בפועל שלה.
השינויים האלה מדגישים עד כמה חשוב למנהלי אבטחת מידע לכסות כמה שיותר משטח ההתקפה – כיסוי מערך רחב יותר של נתוני קוד, תצורה ופרוטוקולים. זה גם אומר שיש להפיץ מנגנוני אבטחה לנקודות גילוי נוספות ולהעניק כלים ואוטומציה כדי להחליף משימות ידניות.
בקרוב: זינוק במתקפות Zero Day
אנחנו צפויים לראות גל של פגיעויות Zero Day שמתגלות על ידי בינה מלאכותית, וכדי להתכונן כראוי מומלץ לארגונים לתעדף אימוץ של כלים הגנתיים המופעלים על ידי AI, להגביר את השיתוף פעולה בין צוותי פיתוח ואבטחה כדי לטפל בפגיעויות מוקדם יותר, ולהמשיך לחנך את הצוות לגבי איומי בינה מלאכותית חדשים. המשמעות היא פריסת בינה מלאכותית כדי להילחם באיומי בינה מלאכותית, והכפלת ההשקעה ב-Zero Trust ואסטרטגיות יזומות אחרות כדי להקטין את שטח ההתקפה.
מדובר לא רק בשינוי בנוף האיומים, אלא בהצצה אל עתיד אבטחת הסייבר. גילוי פגיעויות על ידי בינה מלאכותית אינו אירוע חד-פעמי; זהו אות שהכלים שאנו משתמשים בהם כדי להגן על עצמנו חייבים להתפתח באותו קצב כמו אלה המשמשים לתקוף אותנו. פגיעויות המונעות על ידי בינה מלאכותית מסמנות נקודת מפנה עבור אבטחת הסייבר, ומחייבות אסטרטגיית הגנה רחבה יותר ועמוקה יותר.
הכותבת היא מנהלת מכירות איזורית ב- F5