Menage a trois: marketing, psihoterapie, literatura

Posts tagged ‘Inteligenta artificiala’

Are inteligența artificială nevoie de psiholog?


În 2017, Apple a publicat pe site-ul propriu că sunt în căutarea unui inginer care are și o diplomă în psihologie pentru a îl / o ajuta pe Siri să devină capabil/ă de conversații serioase cu deținătorii de iPhone. Apple explica atunci că deținătorii de iPhone nu o iau pe Siri la întrebări doar în legătură cu starea vremii sau adresa vreunui restaurant. Se întâmplă frecvent ca, atunci când sunt singuri și vulnerabili, oamenii vorbesc cu Siri despre problemele lor personale. De mai multe ori, Apple a fost acuzat că nu a putut preveni actele suicidare ale clienților săi. Când utilizatorii de iPhone îi spuneau lui Siri că vor să se arunce de pe un pod, aplicația vocală le oferea indicații despre cum să ajungă la podul cel mai apropiat.

Pe de o parte, din ce în ce mai mulți oameni au nevoie de suport psihologic. Mulți se îndreaptă spre psihologi, din păcate mult mai puțini decât cei care ar trebui să o facă. Pe de altă parte, apar din ce în ce mai multe mașinării care desfășoară acțiuni făcute până mai ieri de oameni, mașinării construite după chipul și asemnarea noastră. Ele preiau, astfel, toate idiosincraziile noastre, învață la fel ca noi și sunt la limită, capabile să fie subiective atunci când nu trebuie și (prea) obiective atunci când s-ar cere o urmă de empatie.

În Star Trek, atunci când Data, androidul construit de Doctor Noonien Soong găsit pe Omnicron Theta și înzestrat cu creier pozitronic începe să simtă emoții, toată lumea intră în panică, considerând că Data ‘s-a stricat’. Conform scenariului, Data trebuia să devină până la finalul serialului din ce în ce mai mult un om, însă să nu ajungă niciodată ‚chiar acolo’. Data este, fizic, cel mai inteligent personaj și, este, de asemenea, capabil să supraviețuiască în atmosfere letale pentru om. Ca android însă, este cel mai puțin stabil emoțional din tot echipajul, mai ales de când Doctor Soong decide să îi adauge un ‘cip emoțional‘.

Așadar, cât de puțin oameni dorim să (mai) fim, și cât de oameni vor ajunge să fie mașinile pe care le construim?

Cum analizează, lucid, Thomas Hills, profesor de psihologie la Warwick University, într-un articol din Aeon, ‚Acești algoritmi controlează viteza mașinilor fără șofer, identifică țintele pentru dronele militare autonome, calculează sugestibilitatea noastră la marketingul politic și comercial, ne ajută să ne găsim sufletul-pereche pe site-urile de online dating și evaluează riscul atunci când încheiem o asigurare sau luăm un credit. Algoritmii devin fundalul aproape ‘simțitor al vieții noastre‘.

Devine extrem de tentant, aș zice, să îi lăsăm să  ne ajute să ne trăim viața într-un mod care pare mai ușor, și să ne bucurăm de viața cea nouă, în care roboței vizibili sau invizibili preiau de la noi și duc cu sârguință la capăt toate sarcinile rutiniere și nasoale care ne mănâncă timp prețios. Așa o fi?

Cum ar fi să dai frâu liber invențiilor tehnologice în viața ta și să le delegi părți importante din ea? De la alegerea și sortarea șosetelor la creșterea plantelor, livrarea coletelor, cumpărarea prezervativelor și alegerea partenerului de viață? Totul poate fi dat altcuiva spre rezolvare, cu douaă condiții:

  1. Să nu ai pretenția să le facă la fel de bine ca tine;
  2. Să nu te mire când nu vei fi întrebat cu privire la o alegere pe care părea că numai tu o poți lua.

De ce facem asta, de lene sau pentru că nu avem ceva mai bun de făcut?

Cartea lui Nicolas Santolaria, ‘Cum mi-am delegat viața‘ (‚Comment j’ai sous-traité mai vie’) este o parabolă hilară – dacă nu ar fi tristă – de aplicații care, în încercarea de a ne ajuta să ne împerechem șosetele (căci unde se duc șosetele atunci când se duc?) sau de a ne alege partenerul, ajung să ne ducă într-o lume absurdă si Wall-E-eană în care oamenii stau tolăniți pe spate, îmbuibați și ignoranți, în timp ce inteligențele făcute să ia de pe noi sarcinile domestice și rutiniere ajung să ne conducă viețile într-un mod al naibii de imperfect. Redau doar un pasaj, din capitolul în care Santolaria își propune să cultive plante de apartament cu ajutorul unei mici grădini luminate cu LED și a unei aplicații care îi transmite ordine vocale despre când să ude grădina:

Am obținut prima mea recoltă de busuioc roșiatic. Momentul este emoționant, chiar dacă, pentru a ajunge în punctul ăsta, am consumat, fără îndoială, o cantitate de energie echivalentă cu consumul anual din Burkina Faso. Amestec câteva frunze în risotto-ul meu de casă. Să mănânc o plantă care a muncit atât de  mult prin intermediul aplicației ca să intre in dialog cu mine aproape că îmi dă sentimentul că am devenit canibal.‘


Scenă din filmul de desen animat Wall-E (2008)

Interpretările uneori tendențioase pe care le învață noii algoritmi îi fac să aibă comportamente rasiste, sexiste sau, oricum, îmbibate de prejudecățile celor care i-au creat.

Nu se pune doar problema inconsistențelor în programare, de prejudecăți sau de date incorecte. Programele de inteligență artificială ajung susceptibile de probleme de sănătate mentală chiar  din cauza propriei lor structuri, și aceste ‘maladii’ se apropie de cele ale oamenilor. De exemplu, mașinăriile AI pot începe să uite informații mai vechi atunci când în memoria lor se adaugă noi informatii: acest fenomen se numește ‘uitare catastrofică‘ și atinge toate rețelele neuronale, fie că sunt umane sau nu. Social media, printer altele, este un cuib extrem de bun, din păcate, pentru părtinire și ură. Algoritmii care petrec prea mult timp pe social media devin rapid bigoți. Ca oamenii, de altfel.

Una dintre marile iluzii pe care le avem este că, o dată ce am reușit să reproducem inteligența umană din siliciu, lăsăm la o parte toată impredictibilitatea umană. Agenții complecsi de inteligență artificială demonstrează comportamente impredictibile chiar și pentru programatorii lor. Aceste comportamente ‘divergente‘ se manifestă numai în interacțiunea cu lumea exterioară care – ce să vezi? – a rămas la fel de impredictibilă ca și pentru oameni.

Un exemplu straniu este robotul-aspirator Roomba și presupusa lui teamă de vid. Se pare că razele sale infraroșii interpretează greșit porțiunile de podea prea închise la culoare și le confundă cu o gaură sau cu o scară, lucruri pe care a fost programat să le evite.

Acum n-o să cădem în capcana antropomorfizării sau zoomorfizării acestor mașini, cu atât mai mult cu cât ele posedă procese cognitive radical diferite de cele ale entităților biologice. Cu toate astea, nu poți să nu constați că, de vreme ce sunt făcute să semene cu creierul uman, acești algoritmi se află în fața unui risc crescut de a dezvolta probleme de sănătate mentală.

‘Mulți oameni cred că mașinile nu au prejudecăți. Dar mașinile sunt făcute să învețe pe baza datelor umane. Și oamenii sunt plini de interpretări tendențioase.’ (Aylin Caliskan, Princeton University).

O grămadă de lucruri stranii se pot întâmpla cu toate mințile, umane sau realizate după chipul și asemănarea omului. Tot Hills reamintește că Carl Jung a spus odată că în orice om sănătos mental se ascunde un lunatic. Pe măsură ce algoritmii ni se aseamănă din ce în ce mai mult – și, culmea, lucrul ăsta înseamnă apropierea lor de ‘perfecțiune‘, e din ce în ce mai clar că și în circuitele lor neuronale se poate ascunde o ‘ființă‘ care ni se aseamănă din toate punctele de vedere.

Siri

Publicitate

Nor de etichete

%d blogeri au apreciat: