פרסומים
מבט על, גיליון 707, 9 ביוני 2015

ב-13–17 באפריל 2015 התקיים במטה האו"ם בז'נבה דיון, שעסק בפיתוחם של כלי נשק אוטונומיים, ובו נבחנה האפשרות להוסיף נספח חדש ל"אמנה להגבלת השימוש בכלי נשק קונבנציונליים מסוימים" (הידועה גם כ-CCW משנת 1980) ולאסור את השימוש במערכות מתקדמות כאלו. היוזמה נגד מערכות נשק אוטונומיות מתמקדת בהיותן חמושות ובחשש, שהן תפגענה בחפים מפשע בשדה הקרב, ולא בעצם האוטונומיה ובסיכוי, שהיא תפגע בכל אדם, בכל תחומי החיים ובכל מקום. ההתייחסות הצרה של האו"ם למערכות נשק אוטונומיות בלבד והתעלמות ממערכות אזרחיות, היא בעייתית בפני עצמה. משמעות הדברים, היא החמצת הזדמנות לפתח את השיח והפעילות דווקא סביב הנושא החשוב של הגבלתה של בינה מלאכותית באופן כללי.
בשנה האחרונה הופנתה תשומת ליבו של האו"ם לנושא פיתוחן של מערכות נשק אוטונומיות. לאחר שנים של התמקדות בחוקיות ביצועם של סיכולים ממוקדים באמצעות מל"טים מופעלים ממרחק ובעלי יכולות תקיפה, ניכרה בחוגי האו"ם הבנה, כי יש לתת את הדעת לכלי נשק אוטונומיים, הבוחרים את מטרותיהם ללא מעורבות יד אדם. זאת משום שאלו כבר נמצאים בשלבי פיתוח שונים ועשויים להתברר כאתגר גלובלי רב משמעות.
ב-13 -17 באפריל 2015 התקיים במטה האו"ם בז'נבה דיון, שעסק בפיתוחם של כלי נשק אוטונומיים, ובו נבחנה האפשרות להוסיף נספח חדש ל"אמנה להגבלת השימוש בכלי נשק קונבנציונליים מסוימים" (הידועה גם כ-CCW משנת 1980) ולאסור את השימוש במערכות מתקדמות כאלו. אמנה זו מגבילה, בין היתר, שימוש בפצצות מצרר ובנשקים נוספים. כמו כן הגביל האו"ם באופן ייחודי, באמצעות אמנה זו, לא רק את השימוש, אלא אף את פיתוחו של נשק לייזר מעוור. הטענה, שהנחתה את הדיון שהתקיים בוועדת האו"ם, שהוקדשה לנושא הנשקים האוטונומיים ואשר נוסדה עקב שיח ציבורי ופעילות של ארגוני זכויות אדם נגדם, היא, כי: "מערכות נשק אוטונומיות" אינן גזרת גורל וכי ניתן ורצוי להגביל אותן עוד בטרם יחל פיתוח אינטנסיבי שלהן והן תתפוסנה מקום מרכזי בשדות הקרב.
לקראת הדיון, בו לקחו חלק נציגים ממדינות רבות, פרסם ארגון זכויות האדם: Human rights watch מסמך מחקרי מפורט, שני במספר, בנושא מערכות נשק אוטונומיות. בעוד המסמך הקודם של הארגון בנושא זה נועד להעלות, באופן כללי, את המודעות לבעייתיות הגלומה במערכות המדוברות וליצור מערכת מושגים אחידה כתשתית לדיון, המחקר השני התמקד בקושי המשפטי להחיל "אחריות פלילית" (accountability) על מערכות אלו. בדו"ח, כמו גם בדיון בוועדת האו"ם, הודגש הקושי, שכלים אלו מציבים בפני מימוש של "אחריות פלילית". הטיעון המרכזי, הוא: שלוחמים, מפקדים ואפילו מקבלי החלטות בדרג הפוליטי נושאים באחריות פלילית לביצוע פשעי מלחמה ועובדה זו אמורה להרתיע אותם מביצועם. מנגד, לא ניתן ליישם את אותה אחריות על מערכות אוטונומיות. זאת, משום שהעמדתו לדין של רובוט והענשתו הן חסרות משמעות מחד גיסא, ומאידך גיסא קשה ואף לא הגיוני להעמיד לדין מהנדס או חברה, שפיתחו את המערכת האוטונומית, בעקבות פגיעתה בחפים מפשע שנים רבות לאחר פיתוחה.
סוגיה רגישה ומורכבת זו אינה ייחודית למערכות נשק אוטונומיות בלבד. הנושא מאתגר את מחוקקים ורגולטורים במדינות שונות לא רק כאשר מדובר במערכות חמושות הפועלות בשדות קרב, אלא גם כאשר מדובר, למשל, במכוניות אוטונומיות, ששכיחותן עולה בשנים האחרונות. כך, למשל, באחרונה אושר בארצות הברית שימוש במשאית אוטונומית בכבישים, אולם הרגולטור האמריקאי חייב – במסגרת אישור ההפעלה ובין השאר מפני שטרם נמצא פתרון לסוגיית האחריות הפלילית – נוכחות של נהג אנושי ברכב עצמו ומעורבותו בחלק מהפעלתו.
המסמך של Human rights watch, כמו גם אנשי הקמפיין הבינלאומי ל"עצירת הרובוטים הרצחניים", אינם מדגישים את נושא המערכות האוטונומיות האזרחיות בכלל משום שהם מתייחסים רק למצבים של לוחמה ומוטרדים בעיקר מהסיכון שהפרת דיני לחימה תוביל לפגיעה בזכויות אדם בעת לחימה ומכך שלא יהיה את מי להושיב על כיסא הנאשמים בבית הדין הבינלאומי בגין הפגיעה. עם זאת, המסמך גם מעיד, כי בחלק מהנושאים חל ריכוך מסוים בעמדותיהם של המתנגדים לפיתוח רובוטים ולשימוש בהם. בין היתר, נקבעה במסמך הפרדה ברורה יותר מאשר בעבר בין מערכות להגנה אווירית בעלות יכולות אוטונומיות, דוגמת "כיפת ברזל" ו"פטריוט", לבין מערכות שסיכוייהן לפגוע בחיי אדם גדולים יותר, כמו מערכות קרקעיות חמושות או מל"טים אוטונומיים דוגמת מל"ט הקרבX-47B האמריקני, אשר נמצא בשלבי ניסוי, אך כבר ממריא ונוחת ממשחתת וכן מסוגל לתדלק באוויר - כל זאת ללא מעורבות אנושית. בשורה התחתונה קורא המסמך לאסור את הפיתוח והייצור של מערכות נשק אוטונומיות לחלוטין (כמו במקרה נשק לייזר מעוור) על ידי גיבוש ויישום איסורים משפטיים בינלאומיים וכן איסורים שהמדינות תחלנה על עצמן.
אין לזלזל בחשיבותו של המסמך ושל הקמפיין "לעצירת הרובוטים הרצחניים", משום שנראה, כי הארגון שמאחורי הקמפיין הוא גם מי שהכתיב במידה רבה את התנהלות הדיונים בנושא במסגרת ועדת האו"ם. אותו ארגון ניהל חמישה "אירועי צד" בעלי סדר יום זהה וברור במקביל לדיונים שנערכו בז'נבה; אירועים אלה אף הופיעו באתר הרשמי של ועדת האו"ם.
אולם, בשיח הציבורי, שקדם לדיוני הוועדה, בדו"ח של Human rights watch או באירועי הצד שהתקיימו במקביל לדיונים, לא הוזכרו באופן מאוזן טיעונים בעד פיתוח והפעלה של מערכות נשק אוטונומיות. ככל הנראה, טיעונים בכיוון זה גם לא נבחנו בעת הדיונים בוועדה עצמה. נראה שהאו"ם מחמיץ זווית, שתציב סימן שאלה על הנטייה בת זמננו לשלול פיתוח ושימוש במערכות נשק אוטונומיות מכל וכל.
ראשית, אין להקל ראש בצמצום הסיכון לחיי לוחמים, בעיקר במסגרת לחימה בארגוני טרור וגרילה, אשר יוחלפו על ידי אותן מערכות אוטונומיות. בנוסף, אפשר שמערכות כאלו יאפשרו את הגדלתם של כוחות לשמירת השלום של האו"ם עצמו, שלא יחויבו עוד להתבסס על משלוח כוח אדם ממדינות מתנדבות. יתר על כן, קיימת אפשרות לצמצום הפגיעה בחפים מפשע – כתוצאת לוואי של לחימה, שנגדה יוצאים אותם ארגוני זכויות האדם. זאת, עקב הדיוק המשופר של מערכות אוטונומיות, שמבוססות חיישנים ויכולת חישוב העולה על גבול היכולת האנושית. זאת ועוד, נראה שאו"ם מחמיץ את האפשרות לצמצם נקיטת פעולות בניגוד לעקרונותיהם של דיני הלחימה. צמצום זה יתאפשר עקרונית אם המערכות האוטונומיות יבצעו רק את המשימות שתוכנתו אליהן ועל פי מידע שיסופק להן, והתכנות יבוצע בהתאם לדין הבינלאומי.
בנוסף ההתייחסות הצרה של האו"ם למערכות נשק אוטונומיות בלבד והתעלמות ממערכות אזרחיות היא בעייתית בפני עצמה. משמעות הדברים, היא החמצת הזדמנות לפתח את השיח והפעילות דווקא סביב הנושא החשוב של הגבלתה של בינה מלאכותית באופן כללי – הבינה שבבסיסה של כל מערכת אוטונומית – ולא רק של מערכות אוטונומיות חמושות. נושא זה זכה לכותרות בשנה האחרונה בעקבות הצהרות מדאיגות בהקשר זה, מפי אנשי מדע וטכנולוגיה וביניהם אילון מאסק, סטיבן הוקינג וביל גייטס (כל אחד בנפרד) בנוגע לסיכון לאנושות כולה, הטמון בפיתוחה הבלתי-מבוקר של בינה מלאכותית, המתרחש כיום באופן מואץ ברחבי העולם.
היוזמה נגד מערכות נשק אוטונומיות מתמקדת בהיותן חמושות ובחשש, שהן תפגענה בחפים מפשע בשדה הקרב, ולא בעצם האוטונומיה ובסיכוי, שהיא תפגע בכל אדם, בכל תחומי החיים ובכל מקום. בעוד שהגנה על זכויות אדם באזורי סכסוך, היא אינטרס חשוב ביותר, אך צר יחסית, האיום הנובע מפיתוח בלתי מבוקר של מערכות אוטונומיות בכלל עלול לאתגר את האנושות כולה. על כן, המשך פעולה של האו"ם על פי סדר היום המוגדר של ארגוני זכויות אדם עלול להתברר כבכייה לדורות.
הדעות המובעות בפרסומי המכון למחקרי ביטחון לאומי הן של המחברים בלבד.
סוג הפרסום מבט על