Colecții

Atitudini AI: Ce consideră experții cu privire la îngrijorare

Atitudini AI: Ce consideră experții cu privire la îngrijorare


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Așa cum am văzut în Noua noastră lume curajoasă: De ce avansul AI ridică probleme etice, există câteva domenii în care utilizarea AI pare mai puțin decât avantajoasă societății. Acestea includ promulgarea prejudecății rasiale în recunoașterea facială și alte formule secrete algoritmice, precum și o amenințare la locul de muncă și, eventual, siguranță generală, conform scenariului de coșmar sugerat de Elon Musk.

Puteți să-l auziți pe Musk descriind îngrijorările sale cu privire la AI în videoclipul de mai jos.

Ciocnirea de vederi dintre Elon Musk și Mark Zuckerberg

În 2017, când Musk și-a publicat opiniile, el l-a îndemnat pe Zuckerberg să-și exprime o abordare mult mai „optimistă” în timpul unei emisiuni Facebook Live. De fapt, Zuckerberg a acuzat că cei care sunt iresponsabili nu sunt cei care urmăresc AI, ci cei care subliniază pericolele. El a spus:

"Și cred că oamenii care sunt nayayers și încearcă să înfășoare aceste scenarii de judecată finală ... pur și simplu nu înțeleg. Este cu adevărat negativ și, în anumite privințe, cred că este destul de iresponsabil."

„Înapoi la tine” ar putea rezuma răspunsul lui Musk la ideea lui Zuckerberg, pe care a exprimat-o pe Twitter: „Am vorbit cu Mark despre asta. Înțelegerea sa asupra subiectului este limitată”.

Așadar, Musk recurge la o pretenție de expertiză mai mare pentru a-și susține punctul de vedere. De fapt, însă, abordările optimiste versus pesimiste asupra IA nu sunt împărțite la nivelul de expertiză în acest subiect.

Optimistii AI

Un număr de experți în AI împărtășesc ideea optimistă a lui Zuckerberg. De exemplu, Kevin Kelly, co-fondatorul Cu fir și autorul cărții „Inevitabil: înțelegerea celor 12 forțe tehnologice care ne vor modela viitorul”. a făcut această declarație cuprinzătoare: „Cel mai mare beneficiu al sosirii inteligenței artificiale este că AI vor ajuta la definirea umanității. Avem nevoie de AI pentru a ne spune cine suntem. ”

Kelly și-a extins punctul de vedere într-un interviu cu IBM: „Prin AI, vom inventa multe noi tipuri de gândire care nu există biologic și care nu sunt ca gândirea umană”.

În opinia lui Kelly, acest lucru este cu totul pozitiv: „Prin urmare, această inteligență nu înlocuiește gândirea umană, ci o mărește”.

Un alt optimist AI este futuristul și inventatorul, Ray Kurzweil, care a făcut următoarea declarație într-un interviu din 2012:

„Inteligența artificială va atinge nivelurile umane până în jurul anului 2029. Urmăriți acest lucru în continuare până, să zicem, în 2045, vom fi înmulțit inteligența, inteligența umană a mașinii biologice a civilizației noastre de un miliard de ori”.

Kurzweil a explicat-o ca echivalentul „singularității” în știința fizicii, deoarece ar fi „o schimbare profundă perturbatoare în istoria umană”. În cele din urmă, el prevede că „gândirea umană va deveni un hibrid de gândire biologică și non-biologică”.

Pesimistii AI

Există, de asemenea, experți care nu visează la o utopie în care AI preia locuri de muncă și o mare parte din gândirea umanității. Ei văd posibilitatea de a pune AI în sarcina proceselor ca fiind plină de pericole.

Printre acestea se numără Yuval Noah Harari, care a scris Homo Deus: A Brief History of Tomorrow. În cadrul cărții, profesorul Harari a făcut următoarea declarație:

„Vrei să știi cum ar putea trata cyborgii super-inteligenți oamenii obișnuiți din carne și oase? Mai bine începeți prin investigarea modului în care oamenii își tratează verii de animale mai puțin inteligenți. Desigur, nu este o analogie perfectă, dar este cel mai bun arhetip pe care îl putem observa, mai degrabă decât să ne imaginăm ”. 

Luarea lui Harari este opusul polar al futuristilor pozitivi în a imagina ascensiunea a ceea ce el numește „dataism”. în care oamenii cedează terenul superior inteligenței artificiale avansate. Acesta este un viitor dominat de un „sistem cosmic de prelucrare a datelor” care este atât omniprezent, cât și omniscient și, așa cum ar spune Borg, rezistența este inutilă.

Fizicianul teoretic, cosmolog și autor târziu englez care a fost director de cercetare la Centrul de Cosmologie Teoretică de la Universitatea din Cambridge, Stephen Hawking, se încadrează și în tabăra pesimistă. La fel ca Harar, el a considerat experiența umană în urmărirea obiectivelor în proiectarea posibilităților AI după propriile dictate, fără a ține cont de umanitate.

În următorul videoclip Stephen Hawking oferă o abordare foarte pesimistă a IA.

La începutul anului 2015, în timpul unei sesiuni de întrebări și răspunsuri Reddit AMA (Ask Me Anything), lui Hawking i s-a adresat următoarea întrebare de la un profesor care dorea să știe cum să abordeze anumite probleme de AI care apar în clasele sale:

Cum ați reprezenta propriile credințe în fața clasei mele? Punctele noastre de vedere sunt compatibile? Credeți că obiceiul meu de a desconsidera „AI malefic” în stil Terminator este naiv? Și, în sfârșit, ce morală crezi că ar trebui să întăresc pentru studenții mei interesați de IA?

Răspunsul lui Hawking a fost după cum urmează:

Riscul real al IA nu este răutate ci competență. O AI superinteligentă va fi extrem de bună în realizarea obiectivelor sale și, dacă aceste obiective nu sunt aliniate cu ale noastre, avem probleme. Probabil că nu ești un urăsc de furnici rău care pășește furnici din răutate, dar dacă ești responsabil de un proiect de energie verde hidroelectric și există un furnicar în regiune care să fie inundat, păcat pentru furnici. Să nu plasăm umanitatea în poziția acestor furnici.

Este reală amenințarea cu dominația AI?

Anthony Zador, profesor de neuroștiințe la Cold Spring Harbor Laboratory, și Yann LeCun, profesor de informatică la Universitatea New York și om de știință șef AI la Facebook, susțin că obsesia dominației AI este greșită. Ei și-au explicat punctul de vedere într-un American științific blog intitulat Don’t Fear the Terminator publicat pe 26 septembrie 2019.

Îl puteți auzi pe Zador pe AI în acest videoclip:

LeCunn vorbește despre alte aspecte ale IA în acest videoclip:

Răspunzând la întrebarea „De ce ar vrea o IA simțitoare să preia lumea?” oferă un răspuns simplu cu două cuvinte: „Nu ar fi.”

Poate că aveau în minte cartea lui Harari atunci când abordau rolul inteligenței în „dominarea socială” de-a lungul „istoriei evoluției”. Au explicat-o mai degrabă în termeni de instrument decât de driver:

„Și într-adevăr, inteligența este o adaptare puternică, cum ar fi coarne, gheare ascuțite sau capacitatea de a zbura, care poate facilita supraviețuirea în multe feluri. Dar inteligența în sine nu generează impulsul de dominație, mai mult decât o fac coarnele. ”

Așadar, oamenii își folosesc inteligența pentru a-i ajuta să supraviețuiască. Dar când vine vorba de formele artificiale ale inteligenței, nu există un astfel de „instinct de supraviețuire” și de aceea AI nu ar avea niciun motiv să preia oamenii care o programează.

„În AI, inteligența și supraviețuirea sunt decuplate, astfel încât inteligența poate servi oricăror obiective pe care ni le-am propus.”

Preocuparea neîntemeiată cu privire la comploturi de tip science-fiction ca cea aRăzbunătorii: Epoca lui Ultron, sau ceea ce Zador și LeCun (posibil referindu-se la întrebarea pusă de Hawking) numesc „scenariul Terminator” este de fapt contraproductiv, deoarece „doar ne distrage atenția de la riscurile reale ale IA”.

Riscurile cu care ar trebui să ne îngrijoreze AI

Zador și LeCun continuă să-și distingă poziția de cea a optimistilor AI. De fapt, Musk a înțeles bine în cartea lor despre AI care devine „armată”, precum și celelalte amenințări pe care le reprezintă umanității, inclusiv cea a pierderii locurilor de muncă.

„În timp ce AI va îmbunătăți productivitatea, va crea noi locuri de muncă și va crește economia, lucrătorii vor trebui să se recalifice pentru noile locuri de muncă, iar unii vor fi inevitabil lăsați în urmă. La fel ca în cazul multor revoluții tehnologice, AI poate duce la creșteri suplimentare ale inegalităților de avere și venituri, cu excepția cazului în care sunt instituite noi politici fiscale. ”

Pe lângă acele riscuri care pot fi deja anticipate, există și acelea care sunt „riscuri neprevăzute asociate cu orice tehnologie nouă -„ necunoscutele necunoscute ”.”

Ei susțin că doar faptul că nu au fost imaginați într-un complot științifico-fantastic nu înseamnă că nu sunt motive de îngrijorare. Ei subliniază că oamenii sunt cei care vor fi responsabili pentru rezultatele AI extinse, care nu pot dezvolta nicio agenție sau ambiție independentă.

Totuși, accentuând responsabilitatea umană, Zador și LeCun nu subliniază niciun plan special pentru a evita riscurile - atât cunoscute, cât și necunoscute - ale noii tehnologii.

Planificare proactivă pentru AI

Indiferent dacă soluția este reglementarea guvernamentală, așa cum a sugerat Musk, sau un fel de standard industrial, se pare că este în regulă un fel de planificare, conștientizând potențialele pericole. Un număr de experți au sugerat exact acest lucru.

Profesorul Klaus Schwab, fondatorul Forumului Economic Mondial, care a inventat termenul „a patra revoluție industrială”, și-a publicat gândurile asupra direcției sale actuale în 2016.

La fel ca futuristii pozitivi, el a imaginat că viitorul va contopi „lumile fizice, digitale și biologice în moduri care vor transforma fundamental omenirea”. Dar el nu a dat de la sine înțeles că totul va funcționa pentru cel mai bun ", îndemnând oamenii să planifice în avans, conștientizând atât" riscurile, cât și oportunitățile care apar pe parcurs ".

Chiar și cu mașinile fără șofer la orizont, oamenii sunt încă pe scaunul șoferului atunci când vine vorba de planificarea a ceea ce trebuie să facă AI. „Nu există nimic artificial în AI”, a declarat Fei-Fei Li, expert în domeniu. „Este inspirat de oameni, este creat de oameni și - cel mai important - are impact asupra oamenilor.”


Priveste filmarea: Conferința dezbatere De la agonie la extaz evenimentele anului 1918 in aprecierea contemporanilor (Iulie 2022).


Comentarii:

  1. Branris

    Nu în el esența.

  2. Babu

    E împreună. Și cu asta am dat peste.

  3. Budd

    Interesant. Așteptăm mesaje noi pe același subiect.

  4. Amphitryon

    Adică, permiteți greșeala. Pot dovedi asta. Scrie -mi în pm, vom vorbi.

  5. Quinlan

    Scuze, subiectul s-a încurcat. Este luat



Scrie un mesaj