Google nu va permite ca inteligența artificială să fie folosită de SUA pentru a crea arme

google-nu-va-permite-ca-inteligenta-artificiala-sa-fie-folosita-de-sua-pentru-a-crea-armeGoogle nu va permite ca software-ul de inteligență artificială să fie folosit pentru crearea de arme sau pentru eforturi de supraveghere video exagerate.

Google a luat această decizie ca urmare a unor proteste a mii de angajați ai companiei care sunt împotriva colaborării cu armata SUA pentru identificarea de obiecte cu ajutorul dronelor, scrie reuters.com.

În schimb, Google va colabora cu guvernul SUA în domenii precum securitatea cibernetică, recrutarea militarilor, pentru misiuni de căutare și salvare, a declarat, marți, directorul executiv Sundar Pichai.

În ultimii ani, îmbunătățirile aduse costului și performanței computerelor avansate a dus la extinderea folosirii inteligenței artificiale către domenii ca apărarea și sănătatea. Google și marile compani rivale din domeniul tehnologiei au devenit frunizori de top de instrumente de inteligență artificială, ceea ce permite computerelor să analizeze o cantitate mare de informații pentru a face previziuni și pentru a dentifica modele și anomali pe care oamenii, de obicei, nu ar putea să le identifice atât de repede.

Dar posibilitatea ca inteligența artificială să detecteze atacurile cu drone și să identifice dizidenții într-un mare grup de oameni i-a îngrijorat pe apărătorii eticii și pe angajații Google. Un reprezentant al Google, sub protecția anonimatului, a precizat că  gigantul IT nu s-ar fi alăturat unui proiect al armatei SUA dacă ar fi avut principii bine definite. Deși drona nu este creată pentru a fi ofensivă, se apropie prea mult de o armă.

Sundar Pichai a stabilit o serie de principii de folosire a inteligenței artificiale în cadrul Google. Ca urmare a publicării acestora, mai mult de 4.500 de angajați ai Google au scris o scrisoare, în luna aprilie, în care cereau anularea colaborării cu Pentagonul, scrie sophos.com.

Angajații care au atras atenția asupra colaborării cu Pentagonul s-au referit la Proiectul Maven, un program pilot de identificare a obiectelor din imaginile video transmise de drone.

Opoziția angajaților față de acest proiect a fost atât de serioasă, încât unii dintre ei, câteva zeci, și-au dat demisia în semn de protest. Motivul lor este unul de ordin etic, deoarece în alte cazuri s-a observat, spre exemplu, că comportamentul programelor de inteligență artificială este influențat negativ în momentul în care asimilează informații cu un caracter xenofob, iar scopul software-ului celor de la Google este de a fi folosit pentru a face bine.

 

Powered by Bullraider.com

SPAccess - visitor management app