Adeptii imbratisarii neconditionate a inteligentei artificiale (IA) argumenteaza aceasta atitudine prin faptul ca suntem in fata unui important salt tehnologic care nu face decat sa puna la dispozitia oamenilor un nou instrument de natura a-i face mai productivi si a le usura munca. Insa o astfel de abordare simplificatoare, ca sa nu spunem simplista, contine o capcana.
Acest important semnal a fost tras intr-un webinar, tinut recent sub auspiciile INSEAD, in care profesorul Theodoros Evgeniou, expert in Stiinta deciziilor si managementul tehnologiilor, remarca o diferenta esentiala dintre o unealta oarecare, precum un ciocan, si inteligenta artificiala: spre deosebire de toate uneltele cu care am fost obisnuiti pana acum, inteligenta artificiala poate sa ne influenteze modul de a gandi si de a percepe lumea din jur. Un rol important in acest sens, spunea profesorul Evgeniou, il are vulnerabilitatea mintii umane reflectata de exemplu de sindromul “amintirilor false”. Exista numeroase studii care sugereaza ca, intr-un anumit context, oamenii capata convingerea trairii unor evenimente/experiente care de fapt nu au avut loc. Iar inteligenta artificiala va putea crea acest context care sa dea oamenilor convingerea trecerii prin niste evenimente inexistente si, ca urmare, sa-i faca sa isi modifice comportamentul si gandirea.
Insa manipularea mintii umane a inceput de mai multa vreme, devenind un fenomen din ce in ce mai prezent odata cu larga utilizare a retelelor sociale. Sa o denumim o manipulare “pasiva” in conditiile in care “tribalismul” stimulat de retelele sociale sterge granita dintre, pe de o parte, competenta, cunostinte autentice, stiintifice si, pe de alta parte, pseudo-competente, impostura. Posibilitatea pe care o are oricine de a imparti pseudo-informatii in grupuri care impartasesc aceeasi opinie creeaza iluzia competentei si a veridicitatii informatiei. De aici pana la punerea semnului de egalitate intre falsuri si adevar, intre mituri si stiinta, prin modelarea in minte a certitudinii ca individul detine competente de fapt inexistente, nu mai este decat un pas.
Si, probabil, aceasta este marea vulnerabilitate pe care social media a creat-o in serviciul inteligentei artificiale: depersonalizarea competentei. Iar asta risca sa “ofere pe tava” grupuri mari de oameni unei utilizari neetice a inteligentei artificiale. Inainte de explozia social media, competenta era indeobste asociata unor persoane cu un profil profesional credibil si consistent. Vorbim aici despre persoane cu o educatie si experienta solida in domeniile despre care vorbesc, beneficiind de o recunoastere a competentelor lor in cercurile profesioniale/academice.
Astazi insa, este mult mai usor sa capeti o astfel de recunoastere publica, in conditiile in care retelele sociale nu au facut decat sa cultive pana la paroxism o slabiciune a naturii umane numita eroarea de confirmare (confirmation bias). Adica “tendința oamenilor de a favoriza acele informații care le confirmă credințele și ipotezele deja existente și de a ignora in totalitate informația care infirmă respectivele prejudecăți sau, în cel mai bun caz, le acordă o importanță diminuată”.
In acest fel, criteriul principal de validare al pseudo-expertilor nu mai este bagajul lor solid de cunostinte, ci masura in care grupuri de oameni isi gasesc justificarea propriilor prejudecati in argumentatiile lor, indiferent cat de nefundamentate sunt sau, nota bene, indiferent daca persoana care le emite este total necunoscuta. Iar lipsa notorietatii merge mana in mana cu lipsa riscului reputational. Asta inseamna ca, chiar daca in final se dovedeste ca informatia a fost falsa, nimeni nu isi va vedea patata reputatia stiintifica sau profesionala. Pentru ca ea nu a existat de la bun inceput…
Inteligenta artificiala poate insa sa mearga si mai departe. Si chiar daca multe scenarii catastrofice se refera la o societate in care IA preia controlul, Geoffrey Hinton, unul dintre pionierii IA, ne avertizeaza ca, pana la ajunge la o lume controlata de IA in detrimentul oamenilor, mai riscant si apropiat in timp este scenariul utilizarii cu rea intentie a IA chiar de oameni. Ca si cum ai avea un ciocan cu care spargi multe lucruri de valoare ale altora as adauga eu.
Un articol recent din FT citeaza un studiu al companiei Kaspersky care identifica o cerere semnificativa de deep fakes pe darkweb care sunt oferite la preturi care variaza de la 300 la 20.000 de dolari pe minut. In acest context, articolul semnaleaza ca, pana acum, s-a discutat mai ales despre modul in care pot fi influentate optiunile politice si voturile populatiei prin crearea de imagini si stiri false. Insa lucrurile pot avea consecinte la fel de dramatice si cand vine vorba de pietele financiare.
Un deep fake video care arata o explozie langa Pentagon a fost preluat si promovat de canalul media Russia Today. A fost suficient pentru ca pietele financiare sa treaca printr-o scurta sincopa cu evolutii similare contextelor de criza: scadere a bursei si cresterea pretului titlurilor de stat americane si a aurului.
Stirile false rostogolite in media pot avea consecinte cu adevarat semnificative, procesul fiind favorizat si de tranzactiile algoritmice care iau decizii de tranzactionare in fractiuni de secunda pe baza titlurilor de stiri pe care le scaneaza permanent. Aceasta inseamna ca o prabusire a pietelor finaciare poate fi produsa intentionat prin generarea cu ajutorul IA a unor stirii false suficient de credibile incat sa fie preluate si cascadate de cat mai multe canale media si retele sociale.
Paradoxul e ca in astfel de situatii nici nu mai vorbim doar de manipularea mintii umane, ci si a unor algoritmi la fel de incapabili sa identifice stirile false ca multi dintre investitorii umani. In final, comportamentul si al unora si al altora va genera un efect de bulgare de zapada pe pietele financiare.
Drumurile pe care le deschide IA sunt egala masura uimitoare si infricosatoare, iar miza este uriasa. Pentru ca, in final, asa cum profesorul Evgeniou spunea, “cine ne controleaza gandirea, ne va controla si destinul”.
Un weekend placut!