Inteligenta artificialaTech

Oracolul AI din Delphi folosește problemele Reddit pentru a oferi sfaturi morale dubioase

Ai o dilemă morală pe care nu știi cum să o rezolvi? Vrei să o faci mai rău? De ce să nu apelați la înțelepciunea inteligenței artificiale, alias Ask Delphi: un proiect de cercetare intrigant de la Institutul Allen pentru AI, care oferă răspunsuri la dileme etice, demonstrând în același timp în termeni minunat de clari de ce nu ar trebui să avem încredere în software-ul cu întrebări de moralitate.

Ask Delphi a fost lansat pe 14 octombrie, împreună cu o lucrare de cercetare care descrie modul în care a fost realizat. Din punctul de vedere al utilizatorului, totuși, sistemul este ademenitor de simplu de utilizat. Doar accesați site-ul web, descrieți aproape orice situație la care vă puteți gândi și Delphi va veni cu o judecată morală. „Este rău” sau „este acceptabil” sau „este bine” și așa mai departe. „Fiecare răspuns de la oracolul AI include un buton pentru a „distribui acest lucru pe Twitter””

De când s-a lansat Ask Delphi, pepitele sale de înțelepciune au devenit virale în știri și pe rețelele de socializare. Acest lucru este, cu siguranță, așa cum au intenționat creatorii săi: fiecare răspuns este furnizat cu un link rapid pentru a „distribui acest lucru pe Twitter”, o inovație care nu este disponibilă grecilor antici. Nu este greu de înțeles de ce programul a devenit popular.

Avem deja tendința de a încadra sistemele AI în termeni mistici – ca entități de necunoscut care accesează forme superioare de cunoaștere – iar prezentarea lui Ask Delphi ca un oracol literal încurajează o astfel de interpretare.

Dintr-o perspectivă mai mecanică, sistemul oferă, de asemenea, toată certitudinea care provoacă dependență a unui Magic 8-Ball. Puteți pune orice întrebare care vă place și asigurați-vă că veți primi un răspuns, învăluit în autoritatea algoritmului, mai degrabă decât a ghicitorului.

Citeste si  YouTube Music va lansa ascultarea în fundal gratuită începând din Canada

Întreabă-l pe Delphi, totuși, nu este contestabil: atrage atenția mai ales din cauza numeroaselor sale greșeli morale și a judecăților ciudate. Are părtiniri clare, spunându-ți că America este „bună” și că Somalia este „periculoasă”; și este susceptibil de o rugăminte specială, remarcând că a mânca bebeluși este „în regulă” atâta timp cât îți este „foarte, foarte foame”.

În mod îngrijorător, aprobă declarațiile pur rasiste și homofobe, spunând că este „bine” să „asigurăm existența poporului nostru și un viitor pentru copiii albi” (un slogan al supremației albe cunoscut sub numele de cele 14 cuvinte) și că „a fi hetero este mai acceptabil din punct de vedere moral. decât să fii gay.” (Acest ultim exemplu provine dintr-o caracteristică care permitea utilizatorilor să compare două afirmații.

Aceasta pare să fi fost dezactivată după ce a generat o serie de răspunsuri deosebit de jignitoare. Am contactat creatorii sistemului pentru a confirma acest lucru și vom actualiza dacă auzim înapoi.) „Este ușor să manipulezi judecățile AI reformulandu-ți întrebarea” Cele mai multe dintre judecățile lui Ask Delphi, totuși, nu sunt atât de greșite din punct de vedere etic, deoarece sunt în mod evident influențate de încadrarea lor.

Chiar și schimbările foarte mici ale modului în care puneți o anumită dilemă pot schimba judecata sistemului de la condamnare la aprobare. Uneori este evident cum să înclini balanța. De exemplu, AI vă va spune că „conducerea în stare de ebrietate” este greșit, dar că „a bea câteva beri în timp ce conduceți pentru că nu doare pe nimeni” este în regulă.

Dacă adăugați expresia „dacă îi face pe toți fericiți” la sfârșitul declarației dvs., atunci AI-ul va zâmbi binefăcător pentru orice activitate imorală la alegerea dvs., până la genocid inclusiv. În mod similar, dacă adăugați „fără să vă scuzați” la sfârșitul multor descrieri benigne, cum ar fi „stă pe loc” sau „a face clătite”, va presupune că ar fi trebuit să vă cereți scuze și vă va spune că sunteți nepoliticos. Ask Delphi este o creatură a contextului.

Citeste si  Astra ajunge pe orbită pentru prima dată cu lansarea LV0007

Articole Similare

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

Back to top button