בינה מלאכותית הפכה בחוגי מדיניות וביטחון לאומי ל-Buzzword שאומרת הרבה ולא כלום בו-זמנית. מדברים על ״התחרות האסטרטגית על בינה מלאכותית״, ״איך בינה מלאכותית תשנה את שדה הקרב״ ועל התפקיד הקריטי שלה בתחרות בין המעצמות (במיוחד ארה״ב וסין). בנייר עמדה של המכון הבינלאומי ללימודים אסטרטגים מעלים את השאלה האם התחרות היא בכלל על מי יפתח ראשון יישום של בינה מלאכותית לשדה הקרב, או שמא דווקא מי הראשון שיפתח יישום בטוח לשדה הקרב?
AI is a broad term that is poorly defined. It is used to describe both an end goal – machines with cognitive capabilities like humans – and a cluster of research approaches within computer science aiming to reach that goal. A burst of research progress has driven advances in AI systems known as ‘large language models’. These models learn how to predict the words and phrases most likely to occur next in a text based on enormous collections of real writing.
But relative to the impressive capabilities demonstrated in research settings, AI’s rollout into real-world applications has so far been underwhelming. The reason why is simple: deep learning systems are not trustworthy enough. Problems of bias, brittleness, transparency and more have plagued AI systems in the laboratory and the real world alike.
One of AI systems’ most widely documented problems is their propensity to discriminate against marginalised groups. [Another is] AI systems, especially deep learning models, is their propensity to unexpectedly fail when exposed to situations they have not been trained for. This brittleness makes them prone to deliberate manipulation as well as accidental failure. What makes these issues particularly difficult to prevent or mitigate is how little we understand about AI decisions. These [AI] processes generally involve the manipulation of millions or billions of numbers, the meaning of which is difficult or impossible to decipher.
בעית האמינות של יישומי AI מחייבת השקעה במחקר ופיתוח שמכוון לפתור אותה. אולם זו כנראה לא תראה כמו מירוץ בין מדינות, ולא בטוח שהבעיה בכלל ניתנת לפתרון:
The fact that we are currently unable to build trustworthy AI systems bears directly on the question of how this technology will affect the global-strategic picture. Geopolitical analyses of AI often assume a ‘race’ between countries, with the key question being which country will be at the forefront of developing and deploying cutting-edge applications of AI. In this view, the critical variables include R&D spending, top talent, research breakthroughs and rapid adoption. [While] there is indeed a race, but over which country can develop better techniques for safety and reliability first. This alternative, however, seems unlikely for two reasons.
Firstly, basic research in AI is overwhelmingly published openly – and any work that makes meaningful progress on making deep learning more trustworthy will almost certainly be basic research, not applied.
Secondly, it is not clear that the brittleness, opacity and bias of deep learning systems are solvable problems even in principle. Many machine learning researchers expect unpredictability and incomprehensibility to continue to characterise AI systems for the foreseeable future. It could be that what matters most – more than having the prowess to deploy ever- smarter AI models in an ever-wider range of settings – is having the finesse to find uses for AI that harness its power without falling prey to its fragility.
משום השיקולים האלה, המדינה שתהיה הראשונה לפתח ולהשתמש ביישום של בינה מלאכותית לצרכי צבא וביטחון (אם כמערכת עזר לקבלת החלטות, מערכת נשק אוטונומית וכדומה) לא בהכרח תהיה ״המנצחת״ במירוץ. מדינות אחרות יוכלו לנצל חולשות ידועות בבינה המלאכותית שלה כדי לפעול נגדה. המנצחת כך נראה תהיה זו שתדע לפתח יישום בטוח, שנמנע או פותר את הבעיות הידועות של בינה מלאכותית.