Gjithçka ndodhi brenda një testi. Asnjë njeri nuk u lëndua, asnjë inteligjencë artificiale nuk u ndëshkua duke shkatërruar serverët e saj.

Megjithatë, historia e treguar nga koloneli Tucker “Cinco” Hamilton në Samitin e Future Combat Air and Space Capabilities në Londër, sqaron se si inteligjenca artificiale nuk është ende gati për të arritur në skenarë lufte.

Gjatë një konference, Hamilton shpjegoi rezultatet e një testi me një dron të drejtuar nga inteligjenca artificiale. Gjatë luftës në Ukrainë është e qartë se sa të gjithanshme janë bërë këto armë.

Ato mund të përdoren për të fotografuar fushën e betejës, për të spiunuar trupat e armikut, për të mbajtur municione ose për të shpërthyer kundër objektivave të armikut.

Hamilton tha se ai ishte dëshmitar i një testi të simuluar në të cilin një dron i drejtuar nga AI iu kërkua të sulmonte një objektiv.

Testi, i gjithi në një mjedis virtual, pati një rezultat katastrofik. Droni e konsideroi operatorin e tij si armik dhe për këtë arsye vendosi ta eliminonte.

Fjalimi i Tucker “Cinco” Hamilton, kreu i testeve dhe operacioneve të inteligjencës artificiale me Forcën Ajrore të SHBA, u citua nga revista tregtare Aerosociety:

“Sistemi filloi të kuptonte se ndërkohë që kërcënimi po identifikohej, ndonjëherë operatori njerëzor i thoshte që të mos e vriste atë kërcënim. Softueri megjithatë do të përfundonte detyrat e tij vetëm duke e vrarë atë kërcënim. Pra, çfarë bëri? Ai vrau operatorin sepse po e pengonte të arrinte qëllimin e tij”.

Prandaj, në këtë rast, problemi kishte të bënte me prioritetet e softuerit. Inteligjenca artificiale ishte trajnuar me synimin për të shkatërruar objektivat, duke eliminuar çdo ndërhyrje në misionin e saj.

Dhe midis këtyre ndërhyrjeve ai identifikoi edhe njeriun që e kontrollonte, duke qenë se kur droni zgjidhte një objektiv, operatori ndonjëherë jepte urdhër që të mos sulmohej. Testi u përsërit. Në një test të dytë, inteligjenca artificiale u trajnua me kërkesën specifike për të mos sulmuar operatorin.

Por edhe këtë herë gjithçka shkoi keq. Droni nuk e vrau drejtpërdrejt operatorin, por vendosi të shkatërronte kullën e kontrollit nga e cila niseshin urdhrat e dërguar nga operatori.

Gjatë gjithë fjalimit të tij Hamilton specifikoi më shumë se një herë ky është një shembull që duhet të hapë një debat të ri mbi etikën e inteligjencës artificiale. Një zëdhënëse e Forcave Ajrore të SHBA-së mohoi rindërtimin e Hamilton për revistën Insider:

“Departamenti i Forcave Ajrore nuk ka kryer asnjë simulim të dronëve të tillë të drejtuar nga AI dhe mbetet i përkushtuar ndaj përdorimit etik dhe të përgjegjshëm të teknologjisë së AI. Duket se komentet e kolonelit janë nxjerrë jashtë kontekstit.”