Judge Dredd? Tekoäly on ankarampaa kuin ihmiset, kun kyse on ihmisten sääntörikkomuksista
Tutkimustulosten mukaan
Saatat ajatella, että tietokone olisi puolueeton ja oikeudenmukainen tuomari, mutta uusi tutkimus osoittaa, että sinun on ehkä parempi jättää kohtalosi ihmisten käsiin. MIT:n tutkijat havaitsevat, että tekoälyllä on taipumus tehdä tiukempia ja ankarampia tuomioita kuin ihmiset, kun on kyse ihmisistä, jotka rikkovat sääntöjä. Yksinkertaisesti sanottuna tekoäly ei ole halukas päästämään ihmisiä irti, kun he rikkovat lakia!
Tutkijat ovat ilmaisseet huolensa siitä, että tekoäly saattaa määrätä liian ankaria rangaistuksia riippuen siitä, millä tietotutkijoilla se on ohjelmoitu. Kun tekoäly on ohjelmoitu tiukasti sääntöjen perusteella ilman inhimillisiä vivahteita, sillä on taipumus reagoida ankarasti verrattuna siihen, kun se on ohjelmoitu ihmisen reaktioiden perusteella.
Tutkimuksessa ryhmä keräsi kuvia koirista, jotka voivat mahdollisesti rikkoa asunnon sääntöä, joka kieltää aggressiiviset rodut rakennuksesta. Ryhmiä pyydettiin sitten antamaan normatiivisia ja kuvailevia vastauksia.
Kuvaavaa tiimiä ei informoitu koiria koskevasta yleisestä käytännöstä, ja sitä pyydettiin tunnistamaan, oliko kuvassa tai tekstissä kolme tosiasiallista elementtiä, kuten koiran aggressio. Heidän vastauksensa auttoivat muodostamaan tuomioita. Jos käyttäjä sanoi, että kuvassa oli aggressiivinen koira, käytäntöä pidettiin rikotun. Toisaalta normatiiviselle ryhmälle kerrottiin aggressiivisia koiria koskevista säännöistä ja pyydettiin selvittämään, rikkoiko jokainen kuva sääntöä ja jos niin miksi.
Osallistujat havaitsivat 20 prosenttia todennäköisemmin koodirikkomuksen kuvailevalla menetelmällä kuin normatiivisella menetelmällä. Jos koiran käyttäytymistä koskevia kuvailevia tietoja olisi käytetty tekoälymallin ohjelmoimiseen , siitä olisi todennäköisemmin langetettu ankaria rangaistuksia.
Näiden epätarkkuuksien skaalaamisella todellisiin skenaarioihin voi olla merkittäviä seurauksia. Jos esimerkiksi deskriptiivisen mallin avulla ennakoidaan, voiko henkilö tehdä saman rikoksen useammin kuin kerran, se voi tuomita ankarampia tuomioita kuin ihminen ja johtaa korkeampiin takuisiin tai pidempiin rikosrangaistuksiin. Tästä syystä asiantuntijat ovat kannattaneet tiedon läpinäkyvyyden lisäämistä ja väittävät, että tiedon keräämisen ymmärtäminen voi auttaa määrittämään sen mahdollisia käyttötarkoituksia.
“Useimmat tekoälyn/koneoppimisen tutkijat olettavat, että ihmisten arvioinnit datassa ja merkinnöissä ovat puolueellisia. Mutta tuloksemme osoittavat huolestuttavamman ongelman: nämä mallit eivät edes toista jo ennestään puolueellisia inhimillisiä arvioita, koska tiedot, joihin niitä koulutetaan, ovat virheellisiä”, sanoo Marzyeh Ghassemi, apulaisprofessori ja Healthy ML Group in the Computerin johtaja. Science and Artificial Intelligence Laboratory (CSAIL), yliopiston julkaisu .
“Ratkaisu on tunnustaa, että jos haluamme toistaa ihmisten harkintaa , meidän tulee käyttää vain siinä yhteydessä kerättyä tietoa. Muuten päädymme järjestelmiin, jotka määräävät erittäin ankaria malleja, paljon tiukempia kuin mitä ihmiset määräävät. Ihminen näkisi vivahteita tai tekisi eroja, kun taas nämä mallit eivät, Ghassemi selittää.
”Ehkä tapa, jolla ihmiset ajattelevat sääntörikkomuksista poikkeaa siitä, miten he ajattelevat kuvailevista tiedoista. Yleensä normatiiviset päätökset ovat yleensä lievempiä”, sanoo pääkirjailija Aparna Balagopalan. “Tiedoilla on todella merkitystä. On erittäin tärkeää kohdistaa koulutuskonteksti käyttöönottokontekstiin, kun koulutetaan malleja sääntörikkomusten havaitsemiseksi.”
Tiimin tulevaisuuden suunnitelmana on tutkia ammattilaisten, kuten lakimiesten ja lääkäreiden, osallistumisen vaikutusta tietojen syöttämiseen.
Lähde: ActivistPost.com