עדכן אסטרטגי
קהילות מודיעין מהוות מטבען כר נרחב לשימוש בטכנולוגיות מידע חדשות. מאמר זה עוסק בשתי שאלות: כיצד עשויות טכנולוגיות מידע חדשות (בעיקר בינה מלאכותית) לתרום לקהילת המודיעין בתחום המחקר? מהם האתגרים העומדים בפני הטמעת בינה מלאכותית בתחום זה? שילוב בינה מלאכותית במחקר האסטרטגי עשוי להעניק למודיעין יכולת לסייע לקברניטים בהבנת המציאות, בזיהוי מוקדם של תפניות ובניהול סיכונים והזדמנויות. עם זאת, הדרך להשגת יכולת זו רצופה באתגרים, כמפורט במאמר.
מילות מפתח: מחקר מודיעין, הערכת המודיעין, התרעה למלחמה, הערכת מצב, קבלת החלטות, אסטרטגיה, בינה מלאכותית, למידת מכונה
מבוא
בינה מלאכותית היא תוספת משמעותית לתחום הרחב של טכנולוגיות המידע. הגורמים שאפשרו את פריחת היישומים של טכנולוגיית הבינה המלאכותית הם עלייה ביכולות המחשוב, גידול בנפח המידע, אלגוריתמים טובים יותר וגידול בהשקעות (גרימלנד, 2018). יישומים המבוססים על בינה מלאכותית משתלבים יותר ויותר בחיי היום-יום, והשפעתם צפויה להתרחב ולהתגבר במגוון תחומי חיים ((Russell & Manyika, 2020. כך גם לגבי יישומי בינה מלאכותית במערכות ביטחון ומודיעין. קהילות מודיעין מטבען מהוות כר נרחב לשימוש בבינה מלאכותית, מאחר שעיקר פעילותן הוא איסוף מידע בהיקף נרחב ממגוון מקורות, עיבוד נתונים, מחקר הערכה וחיזוי באמצעות תרחישים.
מאמר זה עוסק בטכנולוגיות המידע בעידן הבינה המלאכותית, בהקשר למחקר מודיעין בקהילות המודיעין ובדגש על מחקר אסטרטגי. במאמר ננסה לברר כיצד יכולות טכנולוגיות המידע ("הטכנולוגיה" או "המכונה") לתרום למלאכת מחקר המודיעין ולגיבוש הערכת המודיעין, ומהם האתגרים ליישומה של בינה מלאכותית במחקר המודיעין.
המושג בינה מלאכותית
אין הגדרה מוסכמת אחת למושג בינה מלאכותית (Artificial Intelligence). בחלק זה בחרנו להתבסס בעיקר על טקסטים אמריקאיים רשמיים בתחום הביטחון הלאומי. לפי הגדרה המופיעה בקובץ הוראות החקיקה של הקונגרס האמריקאי בתחום ההגנה הלאומית לשנת 2019 (2019 ,US Congress) , בינה מלאכותית היא:
- כל מערכת מלאכותית המבצעת משימות בנסיבות משתנות ובלתי צפויות ללא פיקוח אנושי משמעותי, או שיכולה ללמוד מניסיון ולשפר את הביצועים, כאשר היא נחשפת לבסיסי נתונים.
- מערכת מלאכותית שפותחה בתוכנת מחשב, בחומרה פיזית או בהקשר אחר, אשר פותרת משימות המצריכות יכולות דומות לאלה של בני אנוש (human-like) - הכרה, תכנון, למידה, תקשורת או פעולה פיזית.
- מערכת מלאכותית המתוכננת לחשוב או להתנהג כמו בן אנוש, כולל ארכיטקטורות קוגניטיביות ורשתות עצביות (Neural Networks).
- מערך שיטות, לרבות למידת מכונה (Machine Learning), המיועדות לבצע משימות קוגניטיביות.
- מערכת מלאכותית המיועדת לפעול באופן רציונלי, לרבות סוכן תוכנה אינטליגנטי או רובוט אשר משיג יעדים באמצעות שימוש בתפיסה, תכנון, הנמקה, למידה, תקשורת, קבלת החלטות וביצוע.
הגדרות אלו מבוססות בחלקן על דמיון בין דרך פעולתה של מערכת בינה מלאכותית והתפוקות שלה לבין אופן החשיבה של בני אנוש. ההישג הנדרש מהמכונה ייבחן במאמר בעיקר לפי מידת יכולתה ה"תבונית" להועיל לבני אנוש לשם השגת מטרותיהם, ובמקרה זה סיוע לגופי המחקר בקהילת המודיעין. זאת תוך ניצול יתרונן היחסי של מכונות המסוגלות לפעול במשימות ספציפיות, ברמת דיוק, במהירות, בהיקף ובמורכבות גבוהים בהרבה מיכולתו של המוח האנושי.
לצורך תיאור קצר של מאפייני הבינה מלאכותית ומהותה נסתייע במאמר "בינה מלאכותית מנקודת המבט של דרפ"א" (סוכנות במשרד ההגנה האמריקאי העוסקת בפיתוחים טכנולוגיים מתקדמים) מאת ד"ר ג'ון לאנצ'ברי, מנהל משרד חדשנות המידע בדרפ"א (Launchbury, 2017).
במאמר מוצגים ארבעה מאפיינים של יכולות בינה מלאכותית:
- יכולת תפיסת הסביבה שמחוץ למכונה (perceiving) - יכולתה של המכונה לקלוט, לנתח ולהגיב למידע אשר היא או מערכות המקושרות אליה אוספות מחוץ למחשב, כגון מערכת הקולטת ומנתחת נתוני דרך, דמויות בסביבה וכדומה.
- יכולת למידה (learning) - למשל, יכולתה של המערכת ללמוד מדוגמאות וליישם את הידע על מידע חדש.
- יכולת הפשטה (abstracting) - למשל יכולת לקחת ידע שהתגלה ברמה מסוימת וליישם אותו ברמה גבוהה יותר. יכולת זו מאפשרת יצירת משמעויות חדשות, והיא מחייבת יכולת של הבנת ההקשר (Contextual Ability).
- בהירות של הסיבתיות (reasoning) – למשל, באיזו מידה משתמש אנושי במכונה יכול להבין את הקשר בין המידע הגולמי למסקנות של המכונה. זוהי יכולת חשובה בתכנון ובקבלת החלטות.
לפי דרפ"א, ניתן להבחין בשלושה גלים בהתפתחות הבינה המלאכותית:
הגל הראשון - יכולת מתוכנתת לעבד מידע. מומחים נוטלים ידע שיש להם בתחום מסוים, מאפיינים אותו בכללים שיכולים להתאים למחשב, וזה מעבד את הנתונים בהתאם לאלגוריתם שהם כתבו ומוציא פלט לפי דפוס מוגדר. דוגמאות לכך הן תוכנות לוגיסטיות, תוכנות למשחקי שחמט ותוכנות לחישובי מס. יכולות הבינה המלאכותית בשלב זה מתאפיינות בבהירות גבוהה של סיבתיות, במובן שהחוקר מבין את קשרי הסיבה-תוצאה הלוגיים שפועלים במכונה, ומהיכן לקחה או קיבלה כל נתון. עם זאת, בהירות זו מתוחמת לתהליך ספציפי ודטרמיניסטי שמכתיב האדם באמצעות אלגוריתם ומידע שהוא מזין למכונה. ליכולות של שלב זה (המיושמת בעשורים האחרונים) יש ערך רב גם כיום. לדוגמה, במסגרת פרויקט של דרפ"א לחיזוק ההגנה בסייבר הצליחו מערכות מהגל הראשון לסייע בחשיפת חולשות בתחום הגנת הסייבר.
הגל השני - נמצא כיום במוקד השיח והעשייה בתחומים מסוימים של בינה מלאכותית. הוא מתבטא ביישומים של זיהוי קול, זיהוי פנים, מיון תמונות ועוד. למערכות הגל השני יכולות טובות מאוד בתפיסת הסביבה שמחוץ למחשב (באמצעות חיישנים וחיבור לביג דאטה). מערכות אלה מאופיינות בלמידה סטטיסטית וכוללות גם שימוש ברשתות עצביות מלאכותיות המאפיינות למידה עמוקה (Deep Learning). באמצעות טכנולוגיה זו יודעת מערכת בינה מלאכותית לזהות תופעה על סמך מאפיינים שהיא למדה בעצמה מדוגמאות (למשל, מצילומי הדמיה של מחלה), ולא רק על לפי המאפיינים שהזין החוקר למכונה. בדרפ"א משתמשים, בין היתר, בטכנולוגיית הגל השני כדי לנתח התפשטות של מתקפות סייבר, וכן לשימוש בכלים אוטונומיים. על אף כל היתרונות הללו מערכות הגל השני עוסקות בתחומים ספציפיים, ויש להן יכולת מזערית להציג סיבתיות.1 מגבלה נוספת היא שמערכות הגל השני זקוקות לכמות אדירה של נתונים ללמידה,2 והן אינן חסינות מטעויות.
הגל השלישי - נמצא עדיין בראשיתו ובשלבי מחקר ופיתוח. הוא אמור לצמצם מגבלות של הגלים הקודמים וליצור יכולות נוספות. בדרפ"א סבורים שהגל השלישי ייבנה סביב מודלים קונטקסטואליים (Contextual Models), שיאפשרו בין היתר לבנות מערכות שיודעות ללמוד מכמות מצומצמת של דוגמאות, לספק הסברים לתוצאות וליצור משמעויות חדשות מנתונים (יכולת הפשטה).
בראייתו, האתגר העיקרי היה "הפיכת ההיקפים העצומים של המודיעין הדיגיטלי, שהסוכנות מקבלת מרחבי העולם, לתמונה דיגיטלית, דינמית ואמינה של העתיד". הולמן הוסיף ש"מודיעין בהקשר זה הופך כמעט לכוח-על".
לסיכום עניין זה - הגל הראשון בתחום הבינה המלאכותית עדיין רלוונטי, הגל השני מקנה יכולות גבוהות בתחומים מסוימים והגל השלישי מבטא את הציפיות להתקדמות בעשור הקרוב. הוא בוודאי לא יהיה הגל האחרון.

טכנולוגיות המידע בעידן הבינה המלאכותית – תרומות אפשריות למחקר בקהילת המודיעין
באוקטובר 2015, בראיון שנתן בתחילת תפקידו, ציין סגן ראש ה-CIA לחדשנות דיגיטלית (Deputy Director of the CIA for Digital Innovation) אנדרו הולמן (Andrew Hallman) מספר אתגרים בתחומו. בראייתו, האתגר העיקרי היה "הפיכת ההיקפים העצומים של המודיעין הדיגיטלי, שהסוכנות מקבלת מרחבי העולם, לתמונה דיגיטלית, דינמית ואמינה של העתיד". הולמן הוסיף ש"מודיעין בהקשר זה הופך כמעט לכוח-על" (Tucker, 2015). ביוני 2019 ציין הולמן כי בינה מלאכותית עשויה לסייע לאנשי מודיעין באמצעות שיפור יכולתם להתמקד בפעילויות בעלות הערך הגבוה ביותר, החל מאוטומציה של משימות שגרתיות וכלה בניצול מהיר של נתונים, זיהוי תבניות וניתוח מכוון חיזוי (Hallman, 2019).
קהילת המודיעין האמריקאית מטמיעה ומקדמת טכנולוגיות בינה מלאכותית - סוכנות ה-CIA לבדה מפתחת כ-140 פרויקטים שממנפים טכנולוגיות בינה מלאכותית כדי לייעל ביצוע משימות מודיעיניות דוגמת פענוח תמונות, ניתוח ותחזיות. משרד ההגנה האמריקאי פועל להקמת מטה בשם 'המרכז המשולב לאינטליגנציה מלאכותית', שיתאם את המאמצים לפיתוח ולהעברת טכנולוגיות בינה מלאכותית לשימוש מבצעי (2019, CRS).
להלן נציג מספר תרומות אפשריות למחקר ולהערכת מודיעין של שלושת גלי הבינה המלאכותית, בשילוב עם טכנולוגיות מידע מוכרות אחרות, כגון טכנולוגיות של ניהול נתוני עתק (Big Data), מיזוג מידע (Data Merging), היתוך מידע (Data Fusion) ועוד. נציין שחלק מהיכולות הללו עדיין אינן נמצאות בהישג יד ברמה מספקת למגוון השימושים הבאים.
תרומות אפשריות של הטכנולוגיה למלאכת המחקר השוטפת
סיוע בעיבוד ובמיצוי נתוני עתק - עידן המידע מספק לחוקרים יותר מידע גולמי ממגוון מקורות, אך זרם המידע גובר ונצבר במהירות ובהיקפים גבוהים מהיכולת שלהם להבין את המידע באמצעים הקיימים ולשלב אותו בתמונת המודיעין (2020, Cruickshank). לדוגמה: צבא ארצות הברית מפעיל מעל 11 אלף מל"טים, שכל אחד מהם מצלם מדי יום תמונות שנפח המידע שלהן עולה על זה של צילום שלוש עונות של ליגת הפוטבול הלאומית באיכות גבוהה, אולם למשרד ההגנה אין עדיין כוח אדם מספיק או מערכת מתאימה למיצוי נפח המידע הזה (2019, CRS). לבינה מלאכותית, בשילוב עם טכנולוגיות לניהול נתוני עתק, יש יכולת לסייע לחוקרים ולאנשי איסוף להתמודד עם היקפי מידע גדולים ממאגרי מידע מבוזרים באמצעות עיבוד, פענוח ומיון מידע לפי סדר עדיפויות. טכנולוגיה זו יכולה להועיל במיוחד אם יתקיים חיבור בין מערכת הנתונים המצויה במחשבו של החוקר לאלה של חוקרים אחרים ושל גורמי האיסוף, ולמאגרים אחרים - לרבות זרם מידע מצילומי מל"טים, לוויינים, אתרי חדשות, רשתות חברתיות, מכוני מחקר ועוד.
שיפור בנגישות המידע המקורי לחוקרים - הטכנולוגיה עשויה לסייע בתרגום שפה, כך שהחוקרים יוכלו לקבל במישרין מידע מקורי בשפות שונות, ותפחת תלותם בתהליכי האיסוף והעיבוד הנעשים אצל גורמי האיסוף (Recorded Future, 2019). כיום יכולת התרגום של מכונה עדיין אינה בשלה ברמה מספקת.
סיוע באימות מידע ובזיהוי הונאה - באמצעות יכולת לבדוק אם מדובר במידע אותנטי או ערוך, בדיקת מהימנות מקורות המידע שעליהם נסמך הטקסט (בדיקת ההיסטוריה המתועדת שלהם במחשב בנושא דיווח מידע לא מדויק) והצלבת המידע שהתקבל עם מידע ממקורות אחרים.
זיהוי פרטים, מִתאמים, דפוסים, תבניות ואנומליות - ניתן לצפות שתהא יכולת זיהוי מהירה של אירועים ודפוסי התנהגות אצל היריב, למשל באמצעות למידה ומעקב אחר תופעות שניתן לזהותן בצילומי אוויר ובתקשורת. כך עשויה הטכנולוגיה לסייע למחקר לגבש תמונת מודיעין עשירה ומנומקת יותר, ואף להתריע מפני פעילות חריגה.
סיוע במיזוג ובהיתוך מידע - בינה מלאכותית תשפר תהליכים אלה. למשל, לתמונת המודיעין ימוזגו נתונים על תקיפות כוחותינו, המערכת תציג את שיעור סדר הכוחות המושמד בצד האויב ואת יכולותיו הנותרות (בוחבוט, 2020).
צמצום הטיות אנוש - הטכנולוגיה עשויה לאפשר צמצום טעויות והטיות קוגניטיביות המושרשות באופן טבעי בקרב אנשי המודיעין - סוגיה שעימה מתמודדת קהילת המודיעין באופן מתמיד (2019, CRS). מדובר למשל בהטיית העיגון (התבססות יתר של בני אנוש על מידע ראשוני), הטיה הנובעת מחשיבה קבוצתית, שימוש במידע חלקי, העצמת חשיבותו של מידע התומך בעמדת החוקרים ועוד (הוייר, 2005). בכל המקרים הללו הטכנולוגיה עשויה לספק נתונים והערכות שאינן מושפעות מהטיות האופייניות לגורם האנושי (אלא אם הוא התערב באופן מגמתי בבחירת הנתונים שהוזנו למכונה), ובכך להוות בקרה על הערכות של בני אנוש. יצוין שדווקא טכנולוגיה של הגל השני עשויה לאתגר את הלוגיקה של החוקרים, משום שהיא מתבססת על הסקה סטטיסטית. לדוגמה, בעוד החוקרים מעריכים אם תהיה התפרצות חברתית במדינה מסוימת על פי הרציונל שבדבר, המכונה בוחנת אם הנתונים מראים על חריגה ביחס לנורמה ועל הדמיון לאירועי התפרצות בעבר, ללא קשר לרציונל.
שיפור ברציפות עבודת המודיעין - מערכות דיגיטליות יכולות לתפקד באופן מלא ורציף גם בלילות ובימי מנוחה, שבהם החוקרים האנושיים אינם זמינים, למעט תורנים שיכולותיהם נמוכות בסדר גודל מיכולת הארגון בשגרה.
סיוע בניהול דסק המחקר - חוקרים בכלל ותורנים בפרט עשויים למצוא ערך בשימוש בעוזר/ת דיגיטלי/ת (דוגמת "סירי" ו"אלקסה") לצורך ניהול דסק המחקר.
הטכנולוגיה עשויה לסייע להציג במהירות ובאופן אינטגרטיבי, שוטף, מלא ורציף את תמונת המודיעין ואת הערכת המודיעין, שכוללת גם משמעויות ותחזיות.
תרומות אפשריות של הטכנולוגיה לגיבוש תוצרי המחקר במודיעין
גיבוש תמונת המודיעין והערכת המודיעין - הטכנולוגיה עשויה לסייע להציג במהירות ובאופן אינטגרטיבי, שוטף, מלא ורציף את תמונת המודיעין ואת הערכת המודיעין, שכוללת גם משמעויות ותחזיות. ליתרון זה משמעות רבה נוכח התהליך הארוך והממושך שנדרש כיום להפקת הערכת מודיעין אסטרטגית כוללת (כגון הערכת מודיעין לאומית) - מה שמגביל את מספר ההערכות הללו, בעוד הקברניטים מבקשים לייעל את תהליך קבלת ההחלטות. כמו כן, ניתן יהיה להפיק דוחות על שינויים בתמונת המודיעין בחתכים וברבדים שונים. הטכנולוגיה כבר מאפשרת הצגת היערכות של כוחות על גבי מפות. מערכות טכנולוגיות עשויות להצביע בפני חוקרים ויחידות איסוף על מקומות שבהם קיימים פערי מידע או עדכניוּת, על מנת שישלימו את תמונת המודיעין. מערכות כאלה עשויות לשלב באופן שוטף בין תמונת מודיעין אויב ("הצד האדום") לבין תמונת כוחותינו ("הצד הכחול"), מה שיתרום לתמונת מצב דינמית.
סיוע במתן מודיעין וייצוג דיגיטלי של המודיעין בפני הצרכנים - הצרכנים עשויים לזכות לאספקה מהירה ורציפה של תוצרי מודיעין דיגיטליים, לרבות הערכות מודיעין דינמיות והצגת המודיעין באמצעים ויזואליים מתקדמים, בכל עת ובהתאם לצורכיהם.
המכונה עשויה ללמוד מפעילות רשתית על סימנים חריגים המעידים על הכנות לפעילות אלימה וטרור ואף לתת במהירות חיווי על תחילת התפרצות גל של אלימות וטרור, כמו האינתיפאדה השנייה.
סיוע במתן התרעה על תפניות אסטרטגיות - המבחנים החשובים של חוקרי המודיעין בתחום ההערכה האסטרטגית הם זיהוי תפניות אסטרטגיות והתרעה עליהן מבעוד מועד, וכן סיוע בגיבוש החלטות אסטרטגיות ובניהול הסיכונים וההזדמנויות (אבן, 2017). מכונות עשויות לסייע לחוקרים במתן התרעות אסטרטגיות באמצעות "למידה", זיהוי אנומליות ושינויים של דפוסי התנהגות של אוכלוסיות, מנהיגים וארגונים. להלן דוגמאות:
- התרעה מפני מלחמה יזומה או פעולת איבה אחרת ביוזמת האויב - המכונה תזהה אנומליות שעשויות להעיד על פעילות חריגה אצל האויב, ותסייע להבין את משמעותה. היא תציג את תמונת הסימנים חריגים, את הקשרים ביניהם ומופעים קודמים שלהם.
- התרעה מפני ערעור יציבות פנימית ומשברים חברתיים - הטכנולוגיה תאפשר זיהוי מוקדם של עלייה באי-שקט חברתי במדינות שונות או בקבוצות אוכלוסייה. מדובר באחד הסימנים המעידים על עלייה בסיכון ליציבות משטרים, כפי שהיה באירועי 'האביב הערבי' (McKendrick, 2019). סגן ראש ה-CIA לחדשנות הדיגיטלית אנדרו הולמן אמר שסוכנות IARPA Intelligence Advanced Research Projects) Activity), הכפופה לראש קהילת המודיעין האמריקאי, הקימה בשנת 2011 תוכנית לפיתוח ניתוח אוטומטי רציף של נתונים זמינים לציבור, כדי לגלות או לחזות אירועים חברתיים משמעותיים כמו משברים פוליטיים, משברים הומניטריים, אלימות המונית, מהומות, הגירות המוניות, התפרצויות מחלות, חוסר יציבות כלכלית, מחסור במשאבים ותגובות לאסון טבע (Tucker, 2015).
- התרעה מפני מתקפת טרור ואינתיפאדה - המכונה עשויה ללמוד מפעילות רשתית על סימנים חריגים המעידים על הכנות לפעילות אלימה וטרור ואף לתת במהירות חיווי על תחילת התפרצות גל של אלימות וטרור, כמו האינתיפאדה השנייה. היא יכולה גם לזהות קשרים בין חשודים, וביניהם לבין אנשים שלא היו עד כה חשודים (אייכנר, 2017).
- חשיפה של הונאה אסטרטגית או התקפה תודעתית - כדוגמת המהלך שקהילת המודיעין האמריקאית מייחסת לרוסיה בבחירות לנשיאות ארצות הברית בנובמבר 2016. עם זאת, בינה מלאכותית מעצימה גם את יכולת האויב להתחזות ולתקוף באמצעות מידע כוזב (Fake News) ו"דיפ פייק" (Deep Fake). היכולת הטכנולוגית הזו הודגמה בסרטון המראה כיצד שחקן מתחזה לנשיא ארצות הברית לשעבר ברק אובמה, באמצעות תוכנות לעיבוד תמונה ועיבוד קול (Vincent, 2018).
סיוע בזיהוי הזדמנויות ביטחוניות - הטכנולוגיה עשויה לסייע בניתוח קשת רחבה יותר של אפשרויות פעולה ולהציע החלטות בלתי צפויות שנראות לכאורה לא רציונליות, אשר יפתיעו את היריב ויקנו יתרון לכוחותינו (2019, CRS).
סיוע בחיזוי באמצעות תרחישים וסימולציות -ניתן לצפות לשיפור ניכר ביכולת להציג תרחישים וסימולציות, ואולי אף להצגת אומדנים לסבירותם של תרחישים. התרחישים יאפשרו להציג אילו מהלכים יהיו מיטביים בראיית היריב, על פי הנחות המבוססות על דפוסי התנהגותו המוכרים והפחות מוכרים. הטכנולוגיה תתרום להצגת תרחישים המשלבים בין המודיעין על האויב וההתנהלות של כוחותינו. בכך עשויים מנהיגים לקבל במהירות הערכות מודיעין והערכות מצב איכותיות יותר, ואף תרחישים רלוונטיים יותר של מלחמות ותוצאותיהן, טרם קבלת החלטות. מנקודת מבט זו עשויות מערכות טכנולוגיות לצמצם מקרים של חישוב מוטעה (מיסקלקולציה) ולהוות גורם מרסן מפני יציאה למלחמה או המשכה. מנגד אין להוציא מכלל אפשרות שיהיו גם מקרים הפוכים, שבהם מנהיגים יתייחסו למערכות כאלה כאל כדורי בדולח ויתפתו לפתוח במהלך צבאי על סמך סימולציה אופטימית, או שיתרחשו מקרים שבהם מהירות התגובה של מערכות בינה מלאכותית תתרום להסלמה (ראו בהמשך - סיכון לאובדן שליטה והסלמה).
שיפור הבקרה - הטכנולוגיה עשויה לסייע לבקרה איכות של הערכות המודיעין והערכות המצב. ניתן יהיה להשתמש בה כדי להציג את תמונת המודיעין בהתאם לאיכות המידע ולעדכניותו, ובחלוקה לסוכנויות איסוף ומקורות - לצורך בחינת תרומתם ומידת התלות בהם. בהינתן תיעוד טוב, ניתן להסתייע בה גם לצורך מעקב אחר ביצועי הארגון המודיעיני בתחום המחקר וההערכה, ולקבל מידע שיוביל לשיפור.
תרומה אפשרית של הטכנולוגיה לשיפור האינטגרציה:
סיוע לאינטגרציה בתוך גופי המחקר וביניהם - כיום המחקר במודיעין מבוסס על התמחות של חוקרים הפועלים במסגרות ארגוניות היררכיות (מדורים, ענפים וזירות), כאשר אף אחד מהם אינו אוחז בידו בכל עת את התמונה המלאה והכוללת. מערכת טכנולוגית יכולה לספק לחוקרים בסיס מידע וידע משותף מפורט ועדכני. מערכת טכנולוגית יכולה לעזור לחוקרים לזהות בשלב מוקדם את ראשיתן של תופעות שכבר מתחוללות במדינות אחרות כמו למשל תופעת 'האביב הערבי', שהחלה בדצמבר 2010 בתוניסיה והתפשטה ברחבי העולם הערבי.
סיוע לאינטגרציה בקהילת המודיעין - הטכנולוגיה תאפשר להגביר במידה ניכרת את האינטגרציה בין מערכות האיסוף והמחקר ובין הארגונים בתוך קהילת המודיעין. למשל, גורמי האיסוף והמחקר יקבלו כל העת תמונה עדכנית של פערי מידע אל מול צי"ח מודיעיני דינמי, לרבות הכוונה שוטפת לגבי מקומות שבהם נדרש לסגור פערי מידע. אינטגרציה זו עשויה לחייב קישור בין מאגרי המידע בקהילה - דבר שארגונים חשאיים אינם נלהבים לעשותו, בין משיקולים של ביטחון מידע ובין בשל תחרות.
סיוע לאינטגרציה בין המודיעין לגופי המבצעים והתכנון - הטכנולוגיה תאפשר לשלב את הערכת המודיעין הדינמית בהערכת המצב הדינמית, וכן תאפשר לגופי המבצעים והתכנון להכווין את גורמי המודיעין לצורכיהם. הדבר יתרום בין היתר לשרטוט עדכני של קו המגע בעת מבצעים ומלחמות.
אם יתממשו יכולות האינטגרציה עשויה הטכנולוגיה להוביל לשינוי בתפיסה הארגונית. למשל, יכולתן של מכונות לסייע באינטגרציה מהירה, רציפה וקומפקטית בתחומים שלעיל עשויה להשפיע על הגמשת המבנה המסורתי הקשיח של קהילות המודיעין, שבו קיימת הפרדה מבנית חדה בין איסוף למחקר, ועל ממסדים ביטחוניים שבהם מתקיימת הפרדה מבנית חדה בין גוף המודיעין לבין אגף המבצעים וגופי התכנון.
אתגרים העומדים בפני הטמעת בינה מלאכותית בתחום המחקר
על אף היתרונות הרבים שניתן למצוא בטכנולוגיה, חשוב לציין גם את הקשיים, הסיכונים והצרכים הנדרשים ליישום מיטבי של בינה מלאכותית במחקר. כל אלה מהווים אתגרים טכנולוגיים, תרבותיים וארגוניים, כמוצג להלן:
קשיים העומדים בפני יישום בינה המלאכותית במחקר
קושי של מכונות "להבין" שפה אנושית מורכבת - כדי לחקור כוונות של היריבים יש להבין ידיעות לעומק, בהן נאומים של מנהיגים ודיאלוגים של בכירים שמדברים בשפת אימם, וכן להבין את תרבותם. פרופ' יוסף גרודזינסקי, ראש המעבדה לנוירו-בלשנות במרכז לחקר המוח באוניברסיטה העברית, מציין ש"התעשייה טרם הצליחה להנדס מכונות שמבינות שפה, או אפילו שמתרגמות שפה כהלכה". ואכן קשה למצוא מישהו שיסתמך על תוכנת התרגום של גוגל (המבוססת על תרגום מכונה סטטיסטי) לצורך תרגום מסמך לשימוש משפטי (גרודזינסקי, 2020). המכונות הקיימות אינן ערוכות להבין כהלכה טקסטים שכוללים ריבוי משמעויות, רמזים, העברת מסרים, בדיחות, אמירות בין השורות ותחביר מורכב. בדומה לבני אדם, מכונת הגל השני של התפתחות בינה מלאכותית מסוגלת ללמוד מדוגמאות, אבל בשונה מבני אדם היא זקוקה כיום לכמות עצומות של דוגמאות, ואין לה יכולת להבין מצבים רגשיים באותו אופן שחוקרים אנושיים מבינים אותם, מעצם התנסותם באותו הרגש.4 הופעת תוכנות תרגום שתוצריהן ידמו לתוצר של מומחה אנושי עשויה לבשר על התקדמות בכיוון זה גם לצורכי מודיעין.
קושי ליישם תוכנות המבוססות על הסקה סטטיסטית במחקר האסטרטגי - יכולות למידה של מכונות מהגל השני מתבססות על דוגמאות רבות ועל כלי הסקה סטטיסטית. אלא שרוב סוגיות המחקר הגדולות בתחומי המודיעין האסטרטגי אינן ניתנות ללמידה מתוך דוגמאות רבות וקשות להכללה. למשל, כל מלחמה היא מקרה ייחודי ואין מדגם מייצג של מידע על מלחמות, שיאפשר לחזות באופן סטטיסטי מתי תפרוץ המלחמה הבאה בין מדינות. ייתכן שיש בכך כדי להסביר מדוע ניסיונות להטמיע מודעות וכלים סטטיסטיים בעבודת חוקרי מודיעין אסטרטגי בקהילת המודיעין האמריקאית לא נחלו הצלחה (טטלוק וגרדנר, 2017). נוסף על כך, כאמור, מערכות המבוססות על הסקה סטטיסטית יכולות להציג מתאם בין משתנים (לדוגמה, מתאם חיובי בין עלייה בפיגועי הצתה לבין מעלות החום), אבל הן לא יוכלו להסביר מדוע המתאם הזה קיים, כלומר מהו ההיגיון שעומד מאחורי מתאם זה. האתגר הוא למצוא דרכים שבהן ניתן לשלב בעבודת המחקר מערכות בינה מלאכותית הכוללות תוכנה סטטיסטית, ולפתח בגל השלישי טכנולוגיות שיצליחו ללמוד מפחות דוגמאות ולהציג הסברים והנמקות.
קושי של חוקרי מודיעין להסתמך על מערכות בינה מלאכותית ולשלוט בהן - סיבה ראשונה היא שחוקרי מודיעין זקוקים להסברים ולהנמקות והם יתקשו להבין איך המכונה הגיעה למסקנותיה - הן משום שמסקנות המכונה יכולות להיות תוצאה של פעולות רבות ומורכבות, לרבות שימוש בפונקציות לא-ליניאריות, והן משום שכאמור מכונות לומדות מהגל השני אינן מסוגלות לספק הסברים לוגיים למסקנותיהן, בהיותן מבוססות על תוכנות של הסקה סטטיסטית. סיבה שנייה היא שרוב תוכנות הניתוח הנמצאות בשימוש כיום הן מערכות סגורות, שאינן מאפשרות לחוקרים לבצע בהן שינויים. זאת בעוד חוקרי מודיעין זקוקים למערכות המאפשרות להם להכירן, ואף להתאים או לשנות מחדש את האלגוריתמים שלהן בהתאם למציאות המשתנה (Cruickshank, 2020). זאת ועוד, חלק מהחוקרים עלולים להתנגד למכונות כמו לכל חדשנות המשנה את סדרי עולם, בפרט נוכח האפשרות שמכונות ייתרו או יפגעו במקומם של החוקרים בעשייה המחקרית.
קושי של צרכני מודיעין לקבל תפוקות בינה מלאכותית שאינן ניתנות להסבר ישיר - ההחלטות הסופיות נמצאות עדיין בידי אנשים, ולהם יש לרוב דרישה להבין את ההיגיון מאחורי הערכת המודיעין וההמלצה לפעולה, שהמכונות אינן מסוגלות לספק עדיין (2019, CRS). המשמעות היא שמנהיגים וצרכני מודיעין אחרים יתקשו לאמץ ולהתבסס על הערכות מודיעין שנוצרו על ידי מכונות בדרך שאינה מובנת להם (2019, Vincent). לפיכך, סביר להניח שיידרש פרק זמן נכבד עד שקברניטים יסכימו להתבסס על הערכות שמקורן במכונות ללא תיווך אנושי - לפחות עד שיוצג רצף הצלחות של מערכות בינה מלאכותית בניבוי אסטרטגי, או עד להופעת מכונות שיודעות להשיב על שאלות ולספק הסברים מפורטים שיניחו את דעתם.
סיכונים שיש להביאם בחשבון או להפחיתם בעת יישום בינה מלאכותית במחקר
סיכון להערכת יתר של המכונה - קיימת אפשרות שחוקרי מודיעין ומקבלי החלטות, אם יחוו הצלחות בתפוקות מכונה, יסמכו עליהן מבלי להבין את ההיגיון של התוצאה ויפסיקו לבקר אותן (2019, CRS). ההאנשה המקובלת של יכולות מכונה (יכולות "למידה", "הסקת מסקנות" וכדומה) ויכולות של מכונה לדמות דיאלוג אנושי עלולות להביא את המשתמשים במכונה לייחס לה יכולות נרחבות שאין בה. בדרפ"א מציינים שיישומים כמו זיהוי קול וזיהוי פנים המבוססים על למידת מכונה (מהגל השני) הם כל כך מוצלחים, עד שלאנשים יש אשליה שהמחשב יכול פשוט ללמוד דברים (Launchbury, 2017).
סיכוני ביטחון הסייבר - לצורך יישום של בינה מלאכותית אמורה להיות למכונה גישה למאגרי מידע גדולים מאוד, שחלקם פתוחים ונגישים גם לאויב, אשר עלול לבצע בהם מניפולציות והונאות שישבשו את תפוקות המכונה. מערכות בינה מלאכותית עצמן חשופות אף הן לפריצות בסייבר. בינה מלאכותית יכולה לשפר את ההגנה בסייבר, אבל היא עלולה לשפר גם את יכולות התקיפה של האויב בסייבר. אם נגנב קוד של מערכת בינה מלאכותית, אזי בפרק זמן קצר מאוד המערכת תוכל לשמש את התוקף נגד הגוף שממנו נגנב הקוד (2019, CRS), וכך להעצים את היקפי הנזק והתפשטותו.
בשונה מאדם, מערכת בינה מלאכותית עלולה לחזור על אותה טעות פעמים רבות במהירות גבוהה, במכונה אחת או בכמה מכונות באותו זמן, דבר שעלול להעצים את הנזק.
סיכונים לטעויות - המכונה עצמה אינה מבטיחה זיהוי ודאי אלא הסתברותי (מערכת גל שני עלולה להציג עובדים עם כלי עבודה כלוחמים). המכונה עלולה לטעות בשל תקלות בפיתוח, בתחזוקה ובהפעלה. המכונה עלולה להיתקל במצבים שהמפתחים שלה לא צפו, נוכח מציאות משתנה. מאחר שבינה מלאכותית עלולה להציע מסקנות שעלולות להיות לא מובנות או להיתפס כבלתי רציונליות, מפעילים של המכונה עלולים לבצע פעולות מתקנות שגויות. נוסף על כך, קשה יהיה לזהות ולתקן את הטעות במכונה ולהתחקות אחר מקורה, כל עוד היא אינה מסוגלת לדווח על מעשיה. כמו כן, בשונה מאדם, מערכת בינה מלאכותית עלולה לחזור על אותה טעות פעמים רבות במהירות גבוהה, במכונה אחת או בכמה מכונות באותו זמן, דבר שעלול להעצים את הנזק (2019, CRS).

סיכון ל"מרוץ חימוש" - בינה מלאכותית היא עוד אחד מהתחומים החדשים שבהם מתקיים מרוץ חימוש מבוסס טכנולוגיה (DNI, 2019). בעבר היו מקורות העוצמה הטכנולוגיים בידי צבאות וממשלות וכיום הם בידי חברות אזרחיות כמו פייסבוק, אמזון וגוגל, וניתן לרכוש מערכות טכנולוגיות כאלה ברשת או להשתמש במערכות אזרחיות, כפי שאמר אלוף-משנה אבי סימון מאגף התקשוב וההגנה בסייבר של צה"ל (בוחבוט, 2020). בעולם כזה אין די בלימוד דפוס ההתנהגות של אדם או אוכלוסייה, אלא יהיה צורך גם במחקר ובהכרת דפוס ה"חשיבה" (האלגוריתם) של המחשב היריב, אשר ילמד את דפוס החשיבה של המחשב בצד שלנו וחוזר חלילה (אפקט "המראות הכפולות"). על כן האתגר הוא לפתח, להתאים וליישם בינה מלאכותית בקצב מהיר יותר מזה של היריבים. כאן גם המקום לפקח על יצוא של טכנולוגיות רגישות בתחום זה.
סיכון לאובדן שליטה ולהסלמה על ידי מכונות - ברמה הטכנו-טקטית, כידוע, הטכנולוגיה כבר מאפשרת לכלים אוטונומיים "לסגור מעגל" מהיר שכולל: מודיעין, קבלת החלטה וביצוע ("sensor to shooter"), למשל לזהות חדירת גבול של חמושים ולפתוח באש, אולם המגבלה על יישומה ללא מעורבות אדם היא בעיקר אתית. בני אנוש עלולים להתפתות להסתמך באופן גובר על תמונת מודיעין ועל "שיקול דעת" של מכונות בשל יכולתן להגיב במהירות לפעילות בצד היריב, וכך יגבר הסיכון שבעתיד יתקבלו החלטות להפעלת נשק אסטרטגי ללא מעורבות בני אנוש (ענתבי ודולניקו, 2020; Johnson, 2020).
סיכון לפגיעה בפרטיות - השימושים המודיעיניים בבינה מלאכותית נמצאים לעיתים במתח עם הצורך לשמור על זכויות הפרטיות של הציבור, במיוחד בגופי מודיעין הפועלים בזירת הפנים. מכאן מתבקש, מצד אחד, להשית מסגרת רגולטורית מאוזנת שתשפר את ההגנה על זכויות האזרחים מפני שימוש לרעה בטכנולוגיות אלה (Weinbaum & Shanahan, 2018). מצד שני, דווקא מערכות אלו יכולות לסייע בשמירה על פרטיות, מפני שהן יכולות לחשוף בפני החוקר תופעות ומגמות מבלי לחשוף נתונים על אנשים פרטיים; או להתמקד בחשיפה של אנשים ספציפיים בלבד מתוך מאגר גדול, להבדיל ממצב שבו חוקרים אנושיים עוברים על המאגר כולו.
סיכון לתלות גוברת במגזר האזרחי - מאחר שחלק ניכר מהפיתוח של בינה מלאכותית מגיע כאמור מהמגזר האזרחי, תיתכן תלות של המגזר הביטחוני בו. זאת ועוד, על המכונה לעבור התאמה לפני שהיא נכנסת למערך הביטחוני. עניין זה וההתפתחות המהירה בתחום הבינה המלאכותית עלולים להביא לעלייה במורכבות תהליכי הרכש של גופי ביטחון. כמו כן, לעיתים מפתחים אזרחיים מסתייגים מהשימוש החדש בתוכנה שלהם, משיקולים אתיים ומסחריים. שיקולים אלה עלולים להרתיע חברות טכנולוגיה מסוימות מכינון שיתוף פעולה עם גופי ביטחון (2019, CRS).
נראה שתחום הבינה המלאכותית ראוי להיות נדבך חדש בידע המתודולוגי הנדרש מחוקרי המודיעין. הדרישה לאוריינות דיגיטלית, שהמודעות לבינה מלאכותית היא חלק ממנה, עשויה להשפיע גם על הרכב כוח האדם בארגוני מודיעין.
צרכים ארגוניים בהטמעת הבינה המלאכותית ביחידות המחקר
צורך בהתאמת משאבי אנוש לעידן הבינה מלאכותית - ד"ר יואל מארק (Yoelle Maarek), סגנית נשיא אמזון למחקר, התייחסה לצורך זה. לדעתה, על חוקרי המודיעין להתאים עצמם לעידן החדש ובתוך כך להבין את הקונספט של האלגוריתם, לבחון באופן מדוקדק את התוצאות המתקבלות על ידי מכונות ולהבינן, וכן להבין כיצד הפעולות שלהם תורמות לפעולתה של המכונה הלומדת (סימן-טוב וסא"ל צ', 2018). מסר דומה נמצא במסמך משנת 2019 מטעם ראש קהילת המודיעין האמריקאית בשם The AIM Initiative. המסמך העוסק בהגברת השימוש בבינה מלאכותית לצורכי המודיעין קובע, בין היתר, שיש להשקיע בתוכניות אשר מאמנות ומציידות את כוח העבודה בכישורים חיוניים לעבודה בסביבת בינה מלאכותית. אין זה אומר שכל חוקר חייב להיות מומחה לבינה מלאכותית, אבל על כולם להבין כיצד בינה מלאכותית משתלבת בעבודה וכיצד היא יכולה לתרום (2019, DNI). נראה שתחום הבינה המלאכותית ראוי להיות נדבך חדש בידע המתודולוגי הנדרש מחוקרי המודיעין. הדרישה לאוריינות דיגיטלית, שהמודעות לבינה מלאכותית היא חלק ממנה, עשויה להשפיע גם על הרכב כוח האדם בארגוני מודיעין.
נוסף על תהליכי התאמה שיעברו חוקרים, יש לצפות לשינוי בהרכב משאבי האנוש ביחידות מחקר - מצד אחד, בעקבות כניסה מסיבית של מכונות לעבודת המודיעין ניתן לצפות לצמצום במספר אנשי המודיעין שיידרשו בתחומים מסוימים. מצד שני, התפתחות טכנולוגית מזמנת יצירה של תפקידים חדשים, כך שלבטח צפוי שינוי במאפייני תפקידים רבים ועלייה בדרישה לתפקידים חדשים, בהם מומחים לפיתוח ולהפעלת מערכות מבוססות בינה מלאכותית. לאור הביקוש הרב בשוק האזרחי לכוח אדם מתאים, על ארגוני המודיעין להתחרות בתנאי העבודה בשוק זה (אייכנר, 2017). קשה אומנם להתחרות בתנאים החומריים שמספק המגזר העסקי, אבל הוועדה לביטחון לאומי בעניין בינה מלאכותית בארצות הברית מצאה כי מומחי בינה מלאכותית יהיו מוכנים לשרת במגזר הממשלתי במקומות שבהם ימצאו אווירה טובה יותר של תכלית וטכנולוגיה, שימקסמו את כישרונותיהם (2019, CRS). מערכת הביטחון יכולה להציע גם יציבות תעסוקתית רבה יותר מאשר במגזר האזרחי.
צורך בהתאמת המערכות הדיגיטליות - יש ליצור תקשורת מיטבית בין מאגרי נתונים למכונה. למרות שבינה מלאכותית אמורה להצטיין בעיבוד המידע ממאגרים מבוזרים, יש ערך בתכנון ובארגון הארכיטקטורה של מאגרי המידע הדיגיטליים שבהם משתמשת קהילת המודיעין למיצוי יכולות המכונה (2020, Cruickshank).
סיכום
שילוב של בינה מלאכותית בעבודת המחקר עשוי לספק לחוקרי המודיעין תועלות הולכות וגוברות - הן בעבודת המחקר השוטף, הן בגיבוש ובהצגת תוצרי המחקר והן באינטגרציה. בעשור הקרוב לפחות, מערכות בינה מלאכותית אינן עתידות להחליף את החוקרים אלא לשמש כלי עזר בידיהם - למשל כדי להבחין בין עיקר וטפל בזרם המידע ולזהות אנומליות, מִתאמים ודפוסים שיובילו למסקנות חשובות. הטכנולוגיות עשויות לסייע בשילוב הערכת המודיעין בהערכת המצב של כוחותינו, ולאפשר לארגוני המודיעין להציג לקברניטים תרחישים לחיזוי התנהגותם של שחקנים אנושיים ותפניות אסטרטגיות ברמה גבוהה, באיכות ויזואלית ובמהירות רבה מאשר בעבר.

מבחינת האתגרים - מגבלת עיבוד שפה ברמה גבוהה נראית כאילוץ משמעותי בחלק ניכר מהשימושים הנדרשים למחקר המודיעין האסטרטגי; וכך גם מגבלות היכולת של המכונה להסביר או לנמק את ממצאיה. שני עניינים אלו קשורים לדרך הפעולה של מכונות בינה מלאכותית מהגל השני. יש לקוות שהפתרון יבוא בגל השלישי. כמו כן, יש להביא בחשבון את כניסת הבינה המלאכותית לשימוש אצל היריבים. היכולת להקדים את היריב בהבנת המציאות ובזיהוי סיכונים והזדמנויות עשויה להיות נכס אסטרטגי רב-ערך לקברניטים. השאלה הכללית שתמשיך לעמוד על הפרק אינה אם מכונות יהיו מסוגלות להשפיע על הצגת המציאות בפני בני אדם ולסייע להם בקבלת החלטות, אלא באיזו מידה יתירו בני אדם למכונות להשפיע ולשלוט בעולמם.
כדי לקדם ביעילות את פיתוח והטעמת תחום הבינה המלאכותית במחקר מודיעין מומלץ להכין אסטרטגיה ותוכניות לשילוב בינה מלאכותית במחקר זה. דוגמה טובה לכך מצויה במודיעין האמריקאי. בינואר 2019 פרסמה לשכתו של ראש קהילת המודיעין האמריקאית (ODNI) את אסטרטגיית ה-)AIM) A Strategy for augmenting Intelligence Using Machines). יוזמה זו כוללת ארבע מטרות מרכזיות הנוגעות לבינה מלאכותית (2019, DNI):
- בטווח הזמן המיידי - יצירת בסיס דיגיטלי של מידע תוך שימוש בבינה מלאכותית, תהליכי אוטומטיזציה ועיצוב מחדש של כוח העבודה בקהילת המודיעין.
- בטווח הזמן הקצר - אימוץ פתרונות של טכנולוגיות מסחריות מהשוק הפרטי, בפרט טכנולוגיות בינה מלאכותית ויכולות ניצול של מקורות גלויים.
- בטווח הזמן הבינוני - פיתוח יכולות טכנולוגיות שיגשרו על הפערים שנותרו, כך שלקהילת המודיעין האמריקאית יהיה יתרון על פני כל העוסקים במודיעין.
- בטווח הזמן הארוך - השקעה בפיתוח יכולות ניתוח משותפות של בני אדם ומכונות.
המחברים מודים לפרופ׳ ישע סיון על הערותיו המועילות למאמר. פרופ' סיון הוא מרצה אורח לדיגיטל, חדשנות והון סיכון בבית ספר למנהל עסקים באוניברסיטה הסינית של הונג קונג, ומנכ"ל חברת i8.
מקורות
אבן, ש' (2017). מהערכת מודיעין לאומית להערכת סיכונים לאומית. בתוך ש' אבן וד' סימן טוב (עורכים). אתגרי קהילת המודיעין בישראל (עמ' 31-21). המכון למחקרי ביטחון לאומי.
אייכנר, א' ( 2017, 18 בינואר). הגוגל של השב"כ. ידיעות אחרונות. https://www.yediot.co.il/articles/0,7340,L-4909040,00.html
בוחבוט, א' (2020, 7 במארס). בינה מלאכותית וייצור מטרות בשניות: כך נערך צה"ל לעידן הדיגיטלי, וואלה!News. https://news.walla.co.il/item/3341866
גרודזינסקי, י' (28 בפברואר 2020). התעשייה לא הצליחה להנדס מכונות שמבינות שפה, הארץ, מוסף תרבות וספרות.
גרימלנד, ג' (דובר אינטל בישראל) (2018, 27 במאי). אינטל מסבירה: 6 מונחים בבינה מלאכותית. .GeekTime https://www.geektime.co.il/private_channel/6-ai-topics-you-need-to-know/
הוייר, ר"ג הבן (2005). הפסיכולוגיה של המחקר המודיעיני. הוצאת מערכות.
טטלוק, פ"א וגרדנר, ד' (2017). תחזיות-על - המדע שמאחורי אמנות הניבוי. כנרת זמורה ביתן, דביר.
סימן-טוב ד', וסא"ל צ' (2018, מאי). מהפכת ה-Big Data מנקודת מבט של ארגוני ענק: ריאיון עם ד"ר יואל מארק, סמנכ"ל מחקר בחברת Amazon. מודיעין הלכה ומעשה, גיליון 3, 35-33. https://bit.ly/33X5IHO
ענתבי ל' 'דולינקו ע' (2020)."בינה מלאכותית ומדיניות - תמונת מצב בפתח 2020. עדכן אסטרטגי, כרך 23 גיליון 1 (עמ' 79-74), המכון למחקרי ביטחון לאומי.
Congressional Research Service (CRS) ( 2019, November 21). Artificial intelligence and national security. CRC. https://fas.org/sgp/crs/natsec/R45178.pdf.
Cruickshank I. J. ( 2020, February 14)/ The ABCs of AI-enabled intelligence analysis, War on the Rocks. https://warontherocks.com/2020/02/the-abcs-of-ai-enabled-intelligence-analysis/
Director of National Intelligence (DNI). ( 2019, January 16). The AIM initiative. DNI. https://www.dni.gov/index.php/newsroom/reports-publications/item/1940-the-aim-initiative-a-strategy-for-augmenting-intelligence-using-machines.
Hallman A., (2019( CIA's Andrew Hallman discusses digital futures at fed talks 2019. CIA.https://www.cia.gov/news-information/blog/2019/andrew-hallman-at-fedtalks-2019.html
Johnson, J. S. (2020). Artificial intelligence:A threat to strategic stability, Strategic Studies Quarterly.
Launchbury J. (2017). A DARPA perspective on artificial intelligence", Technica Curiosa.
McKendrick, K. (2019). Artificial intelligence predication and counterterrorism. The Royal Institute of International Affairs.
Recorded Future Team (2019, January 9). How artificial intelligence is shaping the future of open source intelligence. Recorded Future. https://bit.ly/2Ru0i4z.
Russell S. & Manyika J. (2020, January 31). How to ensure artificial intelligence benefits society: A conversation with Stuart Russell and James Manyika
. McKinsey Global Institute
Tucker, P. (2015, October 1). Meet the man reinventing CIA for the big data era. Defense One. https://bit.ly/37yGUce.
US Congress (2019). FY2019 National Defense Authorization Act (NDAA). Section 238, p.62
https://www.acq.osd.mil/eie/Downloads/IE/NDAA%2019%20BILLS-115hr5515enr.pdf
Vincent, B. (2019, May 31). How the CIA is working to ethically deploy artificial intelligence. Nextgov.
Vincent. J. (2018, September 14). US lawmakers say AI deepfakes ‘have the potential to disrupt every facet of our society.’ The Verge. https://bit.ly/2rtbrHU.
Weinbaum, C. & Shanahan, J.N.T. (2018, July 3). Intelligence in a data-driven age. NDU Press, Joint Force Quarterly n. 90. https://bit.ly/33mg0B2.
הערות שוליים
- (1) דוגמה: מערכת גל שני שנועדה לסווג תמונות יכולה לזהות תמונה של טנק מסוים. אילו המכונה יכלה לדבר היא הייתה אומרת: לאחר למידה מתוך מאגר גדול מאוד של דוגמאות ועל סמך החישובים, בהסתברות הגבוהה ביותר זהו טנק מדגם 72-T (מתוצרת רוסיה). אבל היא לא יכולה לנמק זאת, משום שתהליך הזיהוי לא בוצע לפי מאפייני הטנק המוכרים לחוקרים: צללית אופיינית, מערכת זחלים מסוימת, תותח בקוטר 125 מ"מ, מיגון ריאקטיבי, מקלעים מסוימים ועוד.
- (2) דוגמה: כדי להכשיר זיהוי כתבי יד יש להזין למערכת 100-50 אלף דוגמאות. לפעמים קשה לספק דוגמאות רלוונטיות בכמויות כה גדולות. בן אנוש, דרך אגב, מצליח ללמוד ממספר קטן של דוגמאות, ולשם חותר הגל השלישי.
- (3) הבהירות הסיבתית של מערכות גל שני נמוכה מזו של מערכות גל ראשון, משום שמערכות גל ראשון מפיקות תוצאות המבוססות על אלגוריתם לוגי המובן בדרך כלל לחוקרים. לעומת זאת, מערכות גל שני מבוססות על הסקה סטטיסטית ועל פונקציות שאינן מוכרות למשתמש.
- (4) בעיקרון, בינה מלאכותית אומנם תוכל לזהות סימנים המלמדים על מצבים רגשיים של אנשים כמו הפגנת כעס, באמצעות למידת דוגמאות של טקסטים, תדרי קול ותמונות של מבע פנים ומנח גוף, אבל ספק רב אם מכונות יוכלו לפרש התנהגות אנושית על כל גווניה הקוגניטיביים והרגשיים.