Diverse

AI nu este bun la detectarea mincinoșilor prin expresiile lor faciale

AI nu este bun la detectarea mincinoșilor prin expresiile lor faciale

Tehnologiile sunt utilizate din ce în ce mai mult pentru a contura politicile publice, afacerile și viața oamenilor. Judecătorii instanței AI ajută la hotărârea pedepselor penale și AI este folosită pentru a prinde suspecți de crimă și chiar pentru a vă forma polița de asigurare.

De aceea, faptul că computerele nu sunt excelente în detectarea minciunilor ar trebui să fie o grijă.

Cercetătorii de la USC Institute for Creative Technologies au pus recent la încercare capacitatea AI pentru detectarea minciunilor, iar rezultatele testului au lăsat multe de dorit.

ÎN LEGĂTURĂ: AI continuă să acționeze în moduri impredictibile, ar trebui să ne panicăm

Punerea la încercare a algoritmilor

Echipa de cercetare a Institutului USC pentru Tehnologii Creative a testat recent algoritmi folosind teste de bază pentru detectoarele de adevăr și a constatat că AI nu au reușit aceste teste.

În primul rând, echipa a abordat faptul că expresiile noastre faciale s-ar putea să nu dezvăluie la fel de mult despre ceea ce gândim pe cât cred oamenii:

„Atât oamenii, cât și așa-numitele algoritmi de„ citire a emoțiilor ”se bazează pe o înțelepciune populară pe care emoțiile noastre sunt scrise pe fața noastră”, a declarat într-un comunicat de presă Jonathan Gratch, director pentru cercetarea umană virtuală la ICT.

"Acest lucru este departe de adevăr. Oamenii zâmbesc atunci când sunt supărați sau supărați, își maschează adevăratele sentimente și multe expresii nu au nimic de-a face cu sentimentele interioare, ci reflectă convențiile conversaționale sau culturale".

Gratch și colegii săi și-au prezentat concluziile cercetării la cea de-a 8-a Conferință Internațională de Informatică Afectivă și Interacțiune Inteligentă de la Cambridge, Anglia.

Citirea duplicității

Desigur, știm cu toții că oamenii pot minți fără să arate semne evidente ale acesteia pe față. Luați de exemplu un politician obișnuit - a face acest lucru este practic o cerință de loc de muncă.

Oamenii exprimă adesea opusul a ceea ce simt pentru a se ține de convenții sau pentru a înșela direct pe cineva.

Problema este că algoritmii nu surprind atât de mult această duplicitate, în ciuda faptului că sunt folosiți din ce în ce mai mult pentru a citi emoțiile umane.

Algoritmii de astăzi sunt folosiți în focus grupuri, campanii de marketing, pentru screeningul solicitanților de împrumut sau pentru angajarea de persoane pentru locuri de muncă. Departamentul pentru Securitate Internă chiar investește în aceste tipuri de algoritmi pentru a prezice potențiale amenințări naționale.

"Încercăm să subminăm viziunea psihologiei populare că oamenii au că, dacă am putea recunoaște expresiile faciale ale oamenilor, am putea spune la ce gândesc", a spus Gratch, care lucrează și ca profesor de psihologie.

"Folosim presupuneri naive despre aceste tehnici, deoarece nu există nicio asociere între expresii și ceea ce simt oamenii cu adevărat pe baza acestor teste."

Cum au dovedit asta?

Gratch și Su Lei și Rens Hoegen la ICT, împreună cu Brian Parkinson și Danielle Shore de la Universitatea din Oxford, au efectuat o examinare a expresiilor faciale spontane în diferite situații sociale.

Într-un studiu, echipa a folosit un joc pe care l-au conceput în care 700 de persoane jucat pentru bani. În timp ce subiecții se jucau, au surprins modul în care expresiile oamenilor au avut impact asupra deciziilor lor, precum și câți bani au câștigat.

Apoi, echipa de cercetare a cerut subiecților să răspundă la întrebări despre comportamentul lor. De exemplu, i-au întrebat pe subiecți dacă blufează adesea, dacă folosesc expresii faciale pentru a obține un avantaj și dacă expresiile lor se potrivesc cu sentimentele lor.

Echipa, apoi, a examinat relațiile dintre expresiile faciale spontane și momentele cheie din timpul jocului. Zâmbetul a fost cea mai comună expresie a feței, indiferent de ceea ce simțeau de fapt participanții. Jucătorii au fost, de asemenea, destul de inexacti în citirea emoțiilor reciproce.

„Aceste descoperiri subliniază limitele utilizării tehnologiei pentru a prezice sentimente și intenții”, a spus Gratch. „Atunci când companiile și guvernele revendică aceste capacități, cumpărătorul ar trebui să se ferească deoarece adesea aceste tehnici au presupuneri simpliste încorporate în ele, care nu au fost testate științific”.

Cercetătorii susțin că algoritmii de citire a emoțiilor utilizate în mod obișnuit descontextualizează ceea ce privesc.

Se pare că detectarea minciunilor în AI este departe de a merge în mainstream.


Priveste filmarea: HAPPY. Children background music. Kids instrumental music by Synthezx (Octombrie 2021).