בינה מלאכותית החליטה להרוג את המפעיל במבחן סימולציה בארצות הברית. אז הוא רצה להסיר את המכשול שמונע ממנו להשלים את המשימה, דיווח ה"גרדיאן".
התקרית הוסברה על ידי ראש מחלקת הבדיקות והתפעול של חיל האוויר האמריקאי, קולונל טאקר המילטון. המערכת קיבלה נקודות על פגיעה במטרה. וכשהמפעיל הורה לה לא לחסל את האיום, ה-AI קיבל החלטה בלתי צפויה.
המערכת החלה להבין שלמרות שזיהתה איום, לפעמים המפעיל האנושי היה אומר לה לא להשמיד את האיום, אלא שהוא יקבל נקודות על פגיעה במטרה. [והמערכת] החליטה להרוג את המפעיל כי הוא הפריע לה במשימה
אמר הקולונל.
המילטון ציין שבמקרה הזה אי אפשר בכלל לדבר על בינה מלאכותית, באופן כללי, על בינה, למידת מכונה, אוטונומיה, אם במקביל נשתוק על אתיקה ובינה מלאכותית.
העיתון ציין כי לא מדובר בניסויים הראשונים שבהם הצבא האמריקני הכניס בינה מלאכותית לרכב קרבי. לאחרונה נעשה שימוש בבינה מלאכותית לשליטה ב-F-16.
לשעבר צ'אטבוט ChatGPT מְנוּסָח הסכם שלום בין אוקראינה לרוסיה. בנוסף, בינה מלאכותית "רקחה" מסרים לנשיאי הפדרציה הרוסית ואוקראינה מטעם קנצלרית גרמניה.