אבטחה מבוססת AI: הפרויקט שנועד לאתר מראש תקיפת מערכות קריטיות

קיאנו ריבס ומוטי גוטמן, מאחוריכם - מיקרוסופט חשפה את פרויקט מטריקס, הדור הבא של הגנת סייבר, שתשמור על יישומים מבוססי למידת מכונה הנמצאים בסיכון בשל איומי הסייבר החדשים ● הענקית מרדמונד חברה ל-MITRE, ארגון בלא מטרות רווח הפועל לניהול מחקרים פדרליים, לצורך הפרויקט

הפרויקט שיקדם הגנת מערכות קריטיות מבוססות AI. אילוסטרציה: BigStock

מיקרוסופט (Microsoft) ו-MITRE, ארגון בלא מטרות רווח הפועל לניהול מחקרים פדרליים, חברו יחד כדי להאיץ את התפתחות הדור הבא של הגנת סייבר: להגן על יישומים מבוססי למידת מכונה, הנמצאים בסיכון בשל איומי הסייבר החדשים.

שני הארגונים, בשיתוף פעולה עם מוסדות אקדמיים וענקיות היי-טק גדולות, כגון יבמ (IBM) ואנבידיה (Nvidia), פרסמו כלי קוד פתוח חדש, שנקרא Adrixarial Machine Learning Threat Matrix. מסגרת העבודה נועדה לארגן ולקטלג טכניקות ידועות למתקפות כנגד מערכות לימוד מכונה, לעדכן אנליסטים בתחום אבטחת המידע ולספק להם אסטרטגיות לאיתור, תגובה ותיקון כנגד איומים.

הצורך – עקב יותר ויותר מערכות מבוססות AI שנכנסו לחיינו

MITRE, ארגון בלא מטרות רווח הפועל לניהול מחקרים פדרליים

MITRE, ארגון בלא מטרות רווח הפועל לניהול מחקרים פדרליים

המטריצה ​​מסווגת מתקפות על סמך קריטריונים הקשורים להיבטים שונים של האיום, כגון יכולת ביצוע, מידת החדירה, וכן רמת הגישה וההשפעה הראשונית של האיומים. כדי לבנות את מאגר האיומים ולהכניסו לפרויקט, צוותי מיקרוסופט ו-MITRE ניתחו התקפות בעולם האמיתי שבוצעו על יישומים קיימים, שאותם הם בדקו כיעילים נגד מערכות AI.

"אם רק תנסה לדמיין את יקום האתגרים והפגיעות הפוטנציאליים, לעולם לא תגיע לשום מקום", אמר מיקל רודריגז, מנהל תכניות מחקר מדעי להחלטות, MITRE, "במקום זאת, עם מטריצת האיומים הזו, אנליסטים בתחום האבטחה יוכלו לעבוד עם מודלים של איומים שמבוססים על אירועים בעולם האמיתי, המדמים התנהגות של היריב עם למידת מכונה".

הצורך בפרויקט, הסבירו, נובע מכניסתן של יותר ויותר מערכות מבוססות AI לחיי היומיום שלנו – מהעולם הפיננסי, דרך מערכי בריאות, ועד מערכות הגנה ותשתיות קריטיות. חוקרי MITRE טוענים כי בעוד ארגונים שואפים להאיץ את פיתוחם של אלגוריתמים חדשים, לעתים קרובות הם אינם מצליחים לבחון את אבטחת המערכות שלהם. הדבר נתמך גם במחקרים, לפיהם קיים חוסר ההבנה בתעשייה לגבי החשיבות של אבטחת מערכות AI מפני איומים.

"בין אם זה רק כשל במערכת ובין אם בגלל שחקן זדוני שגורם להתנהלות בדרכים בלתי צפויות, AI עלול לגרום לשיבושים משמעותיים", אמר צ'רלס קלנסי, סגן נשיא בכיר ב-MITRE, "קיים חשש שהמערכות, שאנחנו תלויים בהן, כמו תשתית קריטית, יותקפו, בגלל שהבינה המלאכותית פעלה באופן גרוע".

אלגוריתמים נוטים לטעויות

אלגוריתמים נוטים לטעויות, ובמיוחד כאשר הם מושפעים מהתערבויות זדוניות של שחקנים רעים. באחד המחקרים שערכו באחרונה, צוות החוקרים דירג את היישומים הפליליים הפוטנציאליים שיצויידו בבינה מלאכותית ב-15 השנים הבאות. בין רשימת היישומים הפוטנציאליים המדאיגים ביותר היו ההזדמנות למתקפות בהן המערכות מבוססות AI מהוות חלק משמעותי בהן, דוגמת מערכות בארגונים העוסקים בביטחון הציבור או עסקאות פיננסיות.

החוקרים של MITER ומיקרוסופט ציינו כי התקפות יכולות להופיע בצורות רבות ושונות. זאת, כי האיומים עוברים כל הדרך, מסטיקר המודבק על שלט רחוב או תמרור, העלול לגרום למערכת אוטומטית ברכב אוטונומי לקבל החלטה לא נכונה, ועד למתקפות סייבר מתוחכמות יותר, כגון מתקפות שקטות, הרעלת נתונים, טרויאנים או דלת אחורית.

רודריגז סיכם באומרו כי "ריכוז ההיבטים השונים של כל השיטות הידועות כמאיימות ביעילות על יישומי למידת מכונה, והכנסתם למטריצה ​​אחת, עשוי לסייע למומחי אבטחה במניעת התקפות עתידיות על מערכותיהם. על ידי מתן שפה או טקסונומיה משותפים של הפגיעות והפגיעויות השונות, מטריצת האיומים תדרבן תקשורת ושיתוף פעולה טובים יותר בין ארגונים. אנו מקווים לאסוף מידע נוסף מהאקרים אתיים ('כובע לבן'), הודות להגנת סייבר מבוססת 'צוות אדום'. הרעיון הוא שצוותים של מומחי אבטחה ימצאו דרכים לפצח נקודות תורפה לפני השחקנים הרעים, להזין את מאגר המתקפות הקיים ולהרחיב את הידע הכללי לגבי האיומים האפשריים".

תגובות

(0)

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אין לשלוח תגובות הכוללות דברי הסתה, דיבה, וסגנון החורג מהטעם הטוב

אירועים קרובים