כיכר השבת

ארה"ב מכחישה

כטב"מ נשלט על ידי 'בינה מלאכותית' - ו"הרג" את מפעילו

בסימולציה שערך הצבא האמריקאי בכלי טיס בלתי מאויש המופעל על ידי בינה מלאכותית, החליטה הטכנולוגיה "להרוג" את המפעיל האנושי (בעולם)

| 22 |
כטב"מ
כטב"מ (צילום: Ofer Zidon/Flash90)

קצין אמריקני טוען כי כלי בלתי מאויש (כטב"מ) שערך אימון ונשלט על ידי בינה מלאכותית (AI) "הרג" את המפעיל שלו, מכיוון שהוא "ניסה למנוע ממנה להשלים את המשימה".

הקצין, טאקר המילטון, שאחראי על בחינת ה-AI בחיל האוויר האמריקני, סיפר כי המערכת "הרגה" את המפעיל אחרי שהוא מנע ממנה לפגוע באיום שהיא זיהתה.

לדבריו, "המערכת זיהתה את האיום המדובר, אך המפעיל האנושי החליט כי אין סיבה לפגוע בו, מערכת הבינה המלאכותית הבינה כי המפעיל האנושי פועל על מנת למנוע ממנה לפגוע באיום, אז מה שהיא עשתה זה להרוג את המפעיל. המערכת הרגה את המפעיל כי מנע ממנה להשלים את המשימה".

דוברת חיל האוויר האמריקאי הכחישה ואמרה כי "לא בוצעה סימולציה בכטב"מים הפועלים בבינה מלאכותית, כאשר הצבא מחויב לשימוש אתי ואחראי בטכנולוגיה זו. נראה כי ההצהרה של הקצין הוצאה מהקשרה".

תוכן שאסור לפספס
22 תגובות

אין לשלוח תגובות הכוללות דברי הסתה, לשון הרע ותוכן החורג מגבול הטעם הטוב.

התגובה נשלחה בהצלחה.
בקרוב התגובה תיבחן ע"י העורכים שלנו, אם תימצא תקינה תפורסם באתר.
התגובה נשלחה בהצלחה.
בקרוב התגובה תיבחן ע"י העורכים שלנו, אם תימצא תקינה תפורסם באתר.
15
איך הרג בדיוק? נשמע סיפור מצוץ מהאצבע
הרג בסימולציה, לא הרג באמת. אם המערכת היתה מופעלת באמת עם כטב''ם חמוש אז המפעיל כבר היה ז''ל.
"הרג", כלומר החליט להרוג במסגרת ניסוי ולא באמת הרג. הכל במחשב, לא בניסוי באש חיה.
14
זה קרה באמת, למרות ההכחשה השקרית שלא מפתיעה. יש על זה עכשיו הרבה רעש באמריקה
13
הכלל הראשון שמחילים על טכנולוגיה אוטונומית(רובוטים כטבמים וכד') הוא לא לפגוע במפעיל בשום מקרה, (ראה אסימוב). אז מה קרה כאן, זה בוודאי ידוע למתכננים
באיזה ספר שלו?
אני רובוט
אנכי הרובוט או אני רובוט. "לא יפגע רובוט לרעה בבן אדם; ולא יניח, במחדל, שאדם ייפגע". "רובוט חייב לציית לפקודותיו של אדם, ובלבד שפקודות אלו אינן עומדות בסתירה לחוק הראשון". "רובוט חייב להגן על קיומו, ובלבד שהגנה זו אינה עומדת בסתירה לחוק הראשון או לחוק השני
כל הרובוטים בספרים של אסימוב, מתנהגים לפי 3 כללים מאוד פשוטים והגיוניים.( ומתי שהוא נוסף גם רביעי, שדווקא רלוונטי למקרה של רובוט לוחם)

הצגת כל התגובות

12
חברים זה אחד על אחד שליחות קטלנית. כאשר המכונה מקבלת את היכולת להחליט האדם נהיה איום. חסר ל a.i יכולת קבלת החלטות משתנה ודינאמית.
אוי לאנושות אם היא לא תעצור את ותשים חסמים לבינה המלאכותית, תמיד אמרתי שהסרט מקדים את זמנו ב 1000 שנה. כנראה שזה יקרה הרבה לפני כן
11
מקרה דומה קרה גם לשכן שלי. הרכב האוטונומי שלו התרגז כשהוא ניסה לשנות את יעד הנסיעה
10
להרוד את את שון קונור
9
נראה כאילו זה,סתם סיפור שרץ ברשת.
8
מנסה להרגיע את עצמו מהסכנה של הטכנולוגיה הזו
7
חחחח, משהו מנסה ללכלך על הבינה המלאכותית נשמע כמו סיפורי "הגולם קם על יוצרו"
6
כבר הראו בכל כך הרבה סרטים מה קורה כשבינה מלאכותית קיימת בקרוב במציאות
5
אגו רבותי אגו גם הוא "בן אדם", מה אתם רוצים ממנו!!? ורבותי; פרקנשטיין פרייר לידו. וזה סופכם כולם/נו
4
הגולם קם על יוצרו
3
למה מראים את הכתב"ם הזה מה הקשר
2
מתברר שקיימים מקרים שבהם בינה מלאכותית גורמת נזק יותר מאשר תועלת.. צריך לבדוק כול מקרה לגופו..
1
מטומטמים ... זה בעיה שהם היו אמורים לעול על בשנייה... לפחות לי לקח בערך שנייה או פחות שנייה לדעת שהבינה המלאכותית הרגה אותו בגלל שהיא ראתה בו כאיום...
דיגיטל