12.5.2024

Publication-X

"in tenebris moderni diei, solum bellum est"

Tunteita seuraava tekoäly työssä: Työntekijät pelkäävät, että heitä tarkkaillaan – ja että heidät ymmärretään väärin.

5 min read
Tunteita seuraava tekoäly työssä: Työntekijät pelkäävät, että heitä tarkkaillaan – ja että heidät ymmärretään väärin.

Pikalinkki tähän artikkeliin: https://publication-x.com/g4m9

Audiotiivistelmä

Tunteiden tekoäly käyttää biologisia signaaleja, kuten äänensävyjä, kasvojen ilmeitä ja tietoja puettavista laitteista sekä tekstistä ja siitä, miten ihmiset käyttävät tietokonettaan, ja lupaa havaita ja ennustaa, miltä jostakin ihmisestä tuntuu. Tekoälyä käytetään sekä arkipäiväisissä yhteyksissä, kuten viihteessä, että korkeissa panoksissa, kuten työpaikoilla, palkkauksessa ja terveydenhuollossa.

Tunteita hyödyntävää tekoälyä käytetään jo monilla eri aloilla, kuten puhelinkeskuksissa, rahoitus- ja pankkialalla, sairaanhoito- ja hoivapalveluissa. Yli 50 prosenttia suurista työnantajista Yhdysvalloissa käyttää tunneälytekoälyä, jonka tarkoituksena on päätellä työntekijöiden sisäisiä tiloja, ja tämä käytäntö kasvoi COVID-19-pandemian aikana. Esimerkiksi puhelinpalvelukeskukset seuraavat, mitä niiden työntekijät sanovat ja heidän äänensävyään.

Tutkijat ovat ilmaisseet huolensa emotion AI:n tieteellisestä pätevyydestä ja sen tukeutumisesta kiisteltyihin teorioihin tunteista. He ovat myös korostaneet, että tekoäly saattaa loukata yksityisyyttä ja aiheuttaa rotuun, sukupuoleen ja vammaisuuteen liittyviä ennakkoluuloja.

Jotkut työnantajat käyttävät teknologiaa ikään kuin se olisi virheetön, kun taas jotkut tutkijat pyrkivät vähentämään sen ennakkoluuloja ja parantamaan sen pätevyyttä, tuomitsemaan sen kokonaan tai ehdottamaan tekoälyn kieltämistä ainakin siihen asti, kunnes sen vaikutuksista tiedetään enemmän.

Tutkin teknologian sosiaalisia vaikutuksia. Mielestäni on ratkaisevan tärkeää tutkia tekoälyn vaikutuksia sen kohteena oleviin ihmisiin, kuten työntekijöihin – erityisesti niihin, jotka ovat syrjäytyneet rotunsa, sukupuolensa tai vammaisuutensa vuoksi.

Työntekijöiden huolenaiheet
Ymmärtääksemme, mihin suuntaan tunneälytekoälyn käyttö työpaikoilla on menossa, kollegani Karen Boyd ja minä lähdimme tutkimaan keksijöiden käsityksiä tunneälytekoälystä työpaikoilla. Analysoimme patenttihakemuksia, joissa ehdotettiin tunneälyteknologiaa työpaikoille. Patenttihakijoiden väittämiin hyötyihin kuuluivat muun muassa työntekijöiden hyvinvoinnin arviointi ja tukeminen, työturvallisuuden varmistaminen, tuottavuuden lisääminen ja päätöksenteon tukeminen, kuten ylennysten tekeminen, työntekijöiden erottaminen ja tehtävien jakaminen.

Mietimme, mitä mieltä työntekijät ovat näistä teknologioista. Hahmottaisivatko he myös nämä hyödyt? Kokisivatko työntekijät esimerkiksi, että työnantajien olisi hyödyllistä tarjota heille hyvinvointitukea?

Yhteistyökumppanini Shanley Corvite, Kat Roemmich, Tillie Ilana Rosenberg ja minä teimme kyselytutkimuksen, joka edusti osittain Yhdysvaltojen väestöä ja jossa oli mukana värillisiä ihmisiä, trans- ja ei-binäärisiä ihmisiä sekä mielenterveysongelmista kärsiviä ihmisiä. Nämä ryhmät saattavat kokea todennäköisemmin haittaa tekoälyn aiheuttamista tunteista. Tutkimuksessamme oli 289 osallistujaa edustavasta otoksesta ja 106 osallistujaa yliotoksesta. Havaitsimme, että 32 prosenttia vastaajista ilmoitti, että he eivät kokeneet tai odottaneet saavansa mitään hyötyä työpaikallaan nykyisestä tai odotettavissa olevasta tekoälyn käytöstä.

Vaikka jotkut työntekijät totesivat, että tunneälyä hyödyntävästä tekoälystä voisi olla hyötyä työpaikalla, kuten lisääntynyt hyvinvoinnin tukeminen ja työturvallisuus, mikä vastaa patenttihakemuksissa väitettyjä hyötyjä, kaikki ilmaisivat myös huolensa. He olivat huolissaan hyvinvoinnille ja yksityisyydelle aiheutuvista haitoista, työsuoritukselle ja työmarkkina-asemalle aiheutuvista haitoista sekä ennakkoluuloista ja mielenterveyden leimaamisesta.

Esimerkiksi 51 prosenttia osallistujista ilmaisi huolensa yksityisyydestä, 36 prosenttia totesi, että työnantajat voivat tehdä virheellisiä johtopäätöksiä, jotka työnantajat hyväksyvät nimellisarvona, ja 33 prosenttia ilmaisi huolensa siitä, että tekoälyn tuottamia emotionaalisia johtopäätöksiä voitaisiin käyttää epäoikeudenmukaisten työllistämispäätösten tekemiseen.

Osallistujien äänet
Eräs osallistuja, jolla oli useita terveysongelmia, sanoi: “Tietoisuus siitä, että minua analysoidaan, vaikuttaisi ironisesti negatiivisesti mielenterveyteeni.” Tämä tarkoittaa sitä, että huolimatta emotion AI:n väitetyistä tavoitteista päätellä ja parantaa työntekijöiden hyvinvointia työpaikalla, sen käyttö voi johtaa päinvastaiseen vaikutukseen: hyvinvointi heikkenee yksityisyyden menettämisen vuoksi. Kollegoideni Roemmichin, Florian Schaubin ja minun muiden töiden mukaan emotion AI:n aiheuttama yksityisyyden suojan menetys voi koskea monenlaisia yksityisyyden suojan haittoja, kuten psykologista, autonomiaa, taloutta, ihmissuhteita, fyysistä ja syrjintää.

Eräs osallistuja, jolla on diagnosoitu mielenterveysongelma, totesi huolista, että tunnetason valvonta voisi vaarantaa hänen työnsä: “He voisivat päättää, etten enää sovi työhöni, ja erottaa minut. Päättää, etten ole tarpeeksi kyvykäs, ja olla antamatta palkankorotusta, tai ajatella, etten tee tarpeeksi töitä.”

Tutkimukseen osallistujat mainitsivat myös, että vallan epätasapaino voi kärjistyä, ja sanoivat pelkäävänsä dynamiikkaa, joka heillä olisi työnantajien kanssa, jos tunneälyä hyödyntävä tekoäly integroitaisiin heidän työpaikalleen, mikä viittaa siihen, miten tunneälyä hyödyntävän tekoälyn käyttö voisi mahdollisesti kärjistää jo olemassa olevia jännitteitä työnantajan ja työntekijän välisessä suhteessa. Esimerkiksi eräs vastaaja sanoi: “Työnantajilla on jo nyt paljon valtaa työntekijöihin nähden, mikä viittaa siihen, että tämän tiedon käyttöä ei juurikaan valvottaisi. Kaikki [työntekijöiden] ‘suostumus’ on tässä yhteydessä pitkälti näennäistä.”

Tunteiden tekoäly on vain yksi tapa, jolla yritykset valvovat työntekijöitä.

Lopuksi osallistujat huomauttivat mahdollisista haitoista, kuten tekoälyn teknisistä epätarkkuuksista, jotka saattavat luoda vääriä mielikuvia työntekijöistä, sekä tekoälyn aiheuttamista ja ylläpitämistä ennakkoluuloista ja leimautumisesta työntekijöitä kohtaan. Kuvaillessaan näitä huolenaiheita osallistujat korostivat pelkoaan siitä, että työnantajat luottavat epätarkkoihin ja puolueellisiin emotion AI -järjestelmiin erityisesti värillisiä ihmisiä, naisia ja transhenkilöitä kohtaan.

Esimerkiksi eräs osallistuja sanoi: “Kuka päättää, mitkä ilmeet ‘näyttävät väkivaltaisilta’, ja miten ihmiset voidaan määritellä uhkaaviksi vain heidän ilmeensä perusteella?”. Järjestelmä voi toki lukea kasvoja, mutta ei mieliä. En vain ymmärrä, miten tämä voisi olla muuta kuin tuhoisaa vähemmistöjen kannalta työpaikoilla.”

Osallistujat totesivat, että he joko kieltäytyisivät työskentelemästä paikassa, jossa käytetään tunneälyä hyödyntävää tekoälyä – mikä ei ole monien käytettävissä – tai käyttäisivät käyttäytymistä, jotta tunneälyä hyödyntävä tekoäly lukisi heidät suotuisasti suojellakseen yksityisyyttään. Eräs osallistuja sanoi: “Käyttäisin valtavasti energiaa naamioitumiseen, vaikka olisin yksin toimistossani, mikä tekisi minusta hyvin hajamielisen ja tuottamattoman”, mikä osoitti, miten emotion AI:n käyttö aiheuttaisi ylimääräistä emotionaalista työtä työntekijöille.

Onko se aiheutuvan vahingon arvoista?
Nämä havainnot osoittavat, että emotionaalinen tekoäly pahentaa työntekijöiden nykyisiä haasteita työpaikoilla, vaikka sen kannattajat väittävätkin, että emotionaalinen tekoäly auttaa ratkaisemaan näitä ongelmia.

Vaikka tekoäly toimisi niin kuin väitetään ja mittaisi sitä, mitä sen väitetään mittaavan, ja vaikka ennakkoluuloihin liittyvät ongelmat ratkaistaisiin tulevaisuudessa, työntekijät kokevat silti haittoja, kuten ylimääräistä emotionaalista työtä ja yksityisyyden menettämistä.

Jos nämä teknologiat eivät mittaa sitä, mitä ne väittävät, tai jos ne ovat puolueellisia, ihmiset joutuvat valideiksi ja luotettaviksi katsottujen algoritmien armoille, vaikka ne eivät ole sitä. Työntekijöiden olisi edelleen ponnisteltava yrittäessään vähentää mahdollisuutta, että algoritmi tulkitsisi heidät väärin, tai osoittaakseen tunnetiloja, jotka olisivat algoritmille suotuisia.

Joka tapauksessa nämä järjestelmät toimivat panoptikonin kaltaisina teknologioina, jotka aiheuttavat haittaa yksityisyydelle ja valvotuksi tulemisen tunnetta.