קצין אמריקני טוען כי כלי בלתי מאויש (כטב"מ) שערך אימון ונשלט על ידי בינה מלאכותית (AI) "הרג" את המפעיל שלו, מכיוון שהוא "ניסה למנוע ממנה להשלים את המשימה".
הקצין, טאקר המילטון, שאחראי על בחינת ה-AI בחיל האוויר האמריקני, סיפר כי המערכת "הרגה" את המפעיל אחרי שהוא מנע ממנה לפגוע באיום שהיא זיהתה.
לדבריו, "המערכת זיהתה את האיום המדובר, אך המפעיל האנושי החליט כי אין סיבה לפגוע בו, מערכת הבינה המלאכותית הבינה כי המפעיל האנושי פועל על מנת למנוע ממנה לפגוע באיום, אז מה שהיא עשתה זה להרוג את המפעיל. המערכת הרגה את המפעיל כי מנע ממנה להשלים את המשימה".
דוברת חיל האוויר האמריקאי הכחישה ואמרה כי "לא בוצעה סימולציה בכטב"מים הפועלים בבינה מלאכותית, כאשר הצבא מחויב לשימוש אתי ואחראי בטכנולוגיה זו. נראה כי ההצהרה של הקצין הוצאה מהקשרה".