כיכר השבת

ארה"ב מכחישה

כטב"מ נשלט על ידי 'בינה מלאכותית' - ו"הרג" את מפעילו

בסימולציה שערך הצבא האמריקאי בכלי טיס בלתי מאויש המופעל על ידי בינה מלאכותית, החליטה הטכנולוגיה "להרוג" את המפעיל האנושי (בעולם)

| 22 |
כטב"מ
כטב"מ (צילום: Ofer Zidon/Flash90)

קצין אמריקני טוען כי כלי בלתי מאויש (כטב"מ) שערך אימון ונשלט על ידי בינה מלאכותית (AI) "הרג" את המפעיל שלו, מכיוון שהוא "ניסה למנוע ממנה להשלים את המשימה".

הקצין, טאקר המילטון, שאחראי על בחינת ה-AI בחיל האוויר האמריקני, סיפר כי המערכת "הרגה" את המפעיל אחרי שהוא מנע ממנה לפגוע באיום שהיא זיהתה.

לדבריו, "המערכת זיהתה את האיום המדובר, אך המפעיל האנושי החליט כי אין סיבה לפגוע בו, מערכת הבינה המלאכותית הבינה כי המפעיל האנושי פועל על מנת למנוע ממנה לפגוע באיום, אז מה שהיא עשתה זה להרוג את המפעיל. המערכת הרגה את המפעיל כי מנע ממנה להשלים את המשימה".

דוברת חיל האוויר האמריקאי הכחישה ואמרה כי "לא בוצעה סימולציה בכטב"מים הפועלים בבינה מלאכותית, כאשר הצבא מחויב לשימוש אתי ואחראי בטכנולוגיה זו. נראה כי ההצהרה של הקצין הוצאה מהקשרה".

תוכן שאסור לפספס
22 תגובות

אין לשלוח תגובות הכוללות דברי הסתה, לשון הרע ותוכן החורג מגבול הטעם הטוב.

התגובה נשלחה בהצלחה.
בקרוב התגובה תיבחן ע"י העורכים שלנו, אם תימצא תקינה תפורסם באתר.
התגובה נשלחה בהצלחה.
בקרוב התגובה תיבחן ע"י העורכים שלנו, אם תימצא תקינה תפורסם באתר.
15
איך הרג בדיוק? נשמע סיפור מצוץ מהאצבע
יוני
הרג בסימולציה, לא הרג באמת. אם המערכת היתה מופעלת באמת עם כטב''ם חמוש אז המפעיל כבר היה ז''ל.
אני1
"הרג", כלומר החליט להרוג במסגרת ניסוי ולא באמת הרג. הכל במחשב, לא בניסוי באש חיה.
אלי
14
זה קרה באמת, למרות ההכחשה השקרית שלא מפתיעה. יש על זה עכשיו הרבה רעש באמריקה
יוני
13
הכלל הראשון שמחילים על טכנולוגיה אוטונומית(רובוטים כטבמים וכד') הוא לא לפגוע במפעיל בשום מקרה, (ראה אסימוב). אז מה קרה כאן, זה בוודאי ידוע למתכננים
פיני
באיזה ספר שלו?
בירור
אני רובוט
שי
אנכי הרובוט או אני רובוט. "לא יפגע רובוט לרעה בבן אדם; ולא יניח, במחדל, שאדם ייפגע". "רובוט חייב לציית לפקודותיו של אדם, ובלבד שפקודות אלו אינן עומדות בסתירה לחוק הראשון". "רובוט חייב להגן על קיומו, ובלבד שהגנה זו אינה עומדת בסתירה לחוק הראשון או לחוק השני
עומריקו
כל הרובוטים בספרים של אסימוב, מתנהגים לפי 3 כללים מאוד פשוטים והגיוניים.( ומתי שהוא נוסף גם רביעי, שדווקא רלוונטי למקרה של רובוט לוחם)
אלון

הצגת כל התגובות

12
חברים זה אחד על אחד שליחות קטלנית. כאשר המכונה מקבלת את היכולת להחליט האדם נהיה איום. חסר ל a.i יכולת קבלת החלטות משתנה ודינאמית.
יאצק
אוי לאנושות אם היא לא תעצור את ותשים חסמים לבינה המלאכותית, תמיד אמרתי שהסרט מקדים את זמנו ב 1000 שנה. כנראה שזה יקרה הרבה לפני כן
אלי
11
מקרה דומה קרה גם לשכן שלי. הרכב האוטונומי שלו התרגז כשהוא ניסה לשנות את יעד הנסיעה
שמעון
10
להרוד את את שון קונור
סקיינט
9
נראה כאילו זה,סתם סיפור שרץ ברשת.
לא נשמע אמין
8
מנסה להרגיע את עצמו מהסכנה של הטכנולוגיה הזו
כל מי שמתקן מהרג ל"הרג"
7
חחחח, משהו מנסה ללכלך על הבינה המלאכותית נשמע כמו סיפורי "הגולם קם על יוצרו"
סשה
6
כבר הראו בכל כך הרבה סרטים מה קורה כשבינה מלאכותית קיימת בקרוב במציאות
הבינה המלאכותית= סוף העולם
5
אגו רבותי אגו גם הוא "בן אדם", מה אתם רוצים ממנו!!? ורבותי; פרקנשטיין פרייר לידו. וזה סופכם כולם/נו
Gavriel allouche
4
הגולם קם על יוצרו
תמר חורי
3
למה מראים את הכתב"ם הזה מה הקשר
דני
2
מתברר שקיימים מקרים שבהם בינה מלאכותית גורמת נזק יותר מאשר תועלת.. צריך לבדוק כול מקרה לגופו..
lior
1
מטומטמים ... זה בעיה שהם היו אמורים לעול על בשנייה... לפחות לי לקח בערך שנייה או פחות שנייה לדעת שהבינה המלאכותית הרגה אותו בגלל שהיא ראתה בו כאיום...
בן מור
אולי גם יעניין אותך
דיגיטל