Selv om vi blødde ut personopplysningene våre, kunne vi alltid stole på minst én hemmelighet: Hvis vi har nok selvkontroll, kan folk aldri lese tankene våre. Vær nå forberedt på at selv det kan endre seg.

For mange teknologer er den siste grensen i søket etter personlig informasjon hva vi føler. For en markedsfører eller politiker kan det å lese følelsene våre være det sterkeste av alt.

Leverandører har hastet med å utvikle produkter som kan gjøre nettopp det. Noen foreslår å bruke teknologi som benytter hjernedata (et felt kjent som nevroteknologi). Apple har for eksempel patentert hjernelesing AirPods. Tidligere i år, forskere ved Sør-Koreas Ulsan National Institute of Science and Technology (UNIST) laget en ansiktsmaske de hevder kan analysere brukerens umerkelige ansiktsendringer for å lese menneskelige følelser i sanntid.

Noen krever ikke nye gadgets for å lese følelser; de bruker data fra våre eksisterende; så langt tilbake som i 2018, US National Institute of Health fant det smartklokkedata gjorde det mulig for forskere å bestemme brukernes følelser med en anstendig grad av nøyaktighet. I dag, barnesykehuset Holland Bloorview's Kristtorn Systemet bruker hjertedata samlet fra smartklokker og treningssporere for å finne ut barnas følelser, som det deretter viser på en app for omsorgspersoner.

Emosjonsskannende wearables har en lys side. University of West Scotlands forskningsprosjekt bruker en blanding av ansiktsanalyse og data om bærbare enheter for å hjelpe til med å forstå følelser hos mennesker på autismespekteret. Føl Terapeutics tilbyr et bærbart og back-end dataanalysesystem for å analysere følelser for medisinske behandlinger, inkludert mental helseterapi.

Noen emosjonslesende tiltak fokuserer på ansattes trivsel, spesielt i yrker med høy stress. Det britiske politistyrkens Oscar Kilo-program har prøvd ut wearables for å overvåke den følelsesmessige tilstanden til offiserer i spesielt stressende stillinger, inkludert bruk av skytevåpen og etterforskning av utnyttelse av barn.

Privatliv

Ved siden av disse positive bruksområdene, ser Nita Farahany, Robinson O. Everett Distinguished Professor of Law & Philosophy ved Duke Law School, også en potensiell mørk side.

"Hjernedataene som disse enhetene vil samle inn, vil ikke bli samlet inn i tradisjonelle laboratoriemiljøer eller i kliniske forskningsstudier drevet av leger og forskere," hun sa, snakker på et Ted-arrangement.

"I stedet vil det være selgerne av disse nye enhetene. Selve selskapene som har kommodifisert dataene våre i årevis," la hun til. Hun hevder at disse dataene vil være mer personlige enn dataene vi har delt tidligere fordi de representerer den delen av oss som vi vanligvis holder tilbake.

Neurorights Foundation, en non-profit gruppe med opprinnelse ved Columbia University, fokuserer på å beskytte menneskerettighetene mot potensielt misbruk eller misbruk av nevroteknologi. I april 2024 publiserte den en rapport kalt Beskyttelse av hjernedata: Vurdering av personvernpraksisen til forbrukernevroteknologiselskaper. Den vurderte 30 selskaper som tilbyr ikke-medisinsk sertifiserte forbrukerenheter som samlet inn nevrale data og fant at 29 "ser ut til å ha tilgang til forbrukerens nevrale data og gir ingen meningsfulle begrensninger for denne tilgangen." Den la til at disse selskapenes retningslinjer gjorde dem i stand til å dele data med tredjeparter.

Fra dataanalyse til fjernkontroll

Hva er mulighetene når bedrifter blir flinkere til å lese og registrere følelser? På den verdslige enden av spekteret kan det å forstå hva som begeistrer eller kjeder folk overlade oppgaver som splittesting av forskjellige nettstedsdesign. Mer interessant er dens evne til å bidra til å bygge et dypt personlig bilde av en persons interesser som går langt utover å spore hva de surfer på nettet.

Bedrifter kan prøve å bruke data til å ta kommersielle beslutninger. For eksempel kan et helse- eller livsforsikringsselskap vurdere din følelsesmessige tilstand når du vurderer din egnethet for en polise.

Kanskje et av de mest skremmende scenariene er ideen om emosjonelle tilbakemeldingsløkker. Hvis du syntes et selskap som mater deg innlegg på sosiale medier basert på det du klikker på var skummelt, forestill deg at det drypper innholdet ditt basert på hvordan det vet at du føler deg. Facebook allerede eksperimentert med bevisst manipulering av folks følelser via sosiale medier for over ti år siden.

Disse følelsesmessige løkkene kan være ødeleggende. Etter hvert som teknologien utvikler seg til å virke mer personlig, blir dens evne til å påvirke følelser like kraftig som dens evne til å oppdage dem. Vi har allerede sett beskyldninger av generative AI-produkter som bidrar til selvmord.

Juridisk beskyttelse

Noen lover kan påberopes av regulatorer for å forhindre overskridelser. Mens få selskaper analysert i rapporten fra Neurorights Foundation eksplisitt anerkjente hjernedata som personlig informasjon, har advokater foreslår at det ville falle helt inn i denne kategorien under noen forbrukerforskrifter, for eksempel GDPR. EUs AI-lov regulerer også eksplisitt bruken av AI-drevne systemer som bruker biometriske data for emosjonell gjenkjennelse, og forbyr dem direkte i enkelte miljøer og kategoriserer de som er tillatt som høyrisikosystemer med strenge regulatoriske krav.

Sorgelig dårlig føderal personvernbeskyttelse i USA vil ikke tilby personvernforkjempere den samme trøsten, men statene trapper opp. Noen kan være i stand til å takle følelseslesende wearables under eksisterende lover om personvern for forbrukere, mens noen går over til å skille ut hjernebaserte data. I februar passerte Colorado en regningen eksplisitt beskytte nevrale data. California passerte sitt eget regningen i oktober. En annen måte kan være å klassifisere emosjonelle data som biometriske.

Arbeidet med wearables for følelsesmessig deteksjon fortsetter raskt, og markedet vokser raskt. Emosjonell gjenkjenningsteknologi var verdt 23.5 milliarder dollar i 2022 og vil nå 42.9 milliarder dollar innen 2027 – en CAGR på 12.8 % over fem år. Det er mye penger på spill. Motsatt er det juridiske og etiske arbeidet på dette området fortsatt embryonalt. Å behandle nevrale og emosjonelle data som personopplysninger – om ikke spesialkategoridata med ekstra beskyttelse – er et smart trekk på kort sikt, enten regulatorer har testet problemet eller ikke. Med noe så kraftig, jo mer forsiktig, jo bedre.