Julkaisuaikataulut

Artikkelit julkaistaan 2 tunnin välein alkaen klo 11, poikkeustapauksissa jo klo 9. Jos päivälle on videoartikkeli, se julkaistaan klo 19.

Yhteystiedot

Publication-X on sitoutumaton julkaisu, artikkelit tulevat yhteistyökumppaneiltamme, ensisijassa ainoastaan käännämme tekstit ja muut julkaisut  suomeksi.

Tarvittaessa yhteyden toimitukseen saa helpoiten sähköpostilla osoitteella editor@publication-x.com

Business contacts: via email above.

Publication-X toimii kevytyrittäjä-periaatteella, laskutuksesta vastaa Omapaja Oy, 2399894-2

16.11.2024

Publication-X

"Tempus loquendi abiit, opus Domini faciendum est"

Judge Dredd? Tekoäly on ankarampaa kuin ihmiset, kun kyse on ihmisten sääntörikkomuksista

Judge Dredd? Tekoäly on ankarampaa kuin ihmiset, kun kyse on ihmisten sääntörikkomuksista
46 lukukertaa

Tutkimustulosten mukaan

Saatat ajatella, että tietokone olisi puolueeton ja oikeudenmukainen tuomari, mutta uusi tutkimus osoittaa, että sinun on ehkä parempi jättää kohtalosi ihmisten käsiin. MIT:n tutkijat havaitsevat, että tekoälyllä on taipumus tehdä tiukempia ja ankarampia tuomioita kuin ihmiset, kun on kyse ihmisistä, jotka rikkovat sääntöjä. Yksinkertaisesti sanottuna tekoäly ei ole halukas päästämään ihmisiä irti, kun he rikkovat lakia!

Tutkijat ovat ilmaisseet huolensa siitä, että tekoäly saattaa määrätä liian ankaria rangaistuksia riippuen siitä, millä tietotutkijoilla se on ohjelmoitu. Kun tekoäly on ohjelmoitu tiukasti sääntöjen perusteella ilman inhimillisiä vivahteita, sillä on taipumus reagoida ankarasti verrattuna siihen, kun se on ohjelmoitu ihmisen reaktioiden perusteella.

Tässä Massachusetts Institute of Technologyn ryhmän suorittamassa tutkimuksessa tutkittiin, kuinka tekoäly tulkitsisi havaitut tietyn koodin rikkomukset. He havaitsivat, että tehokkain tieto tekoälyn ohjelmoimiseksi on normatiivista dataa, jossa ihmiset ovat määrittäneet, onko tiettyä sääntöä rikottu . Monet mallit on kuitenkin ohjelmoitu virheellisesti kuvaavilla tiedoilla, joissa ihmiset merkitsevät tilanteen tosiasialliset ominaisuudet ja tekoäly määrittää, onko koodia rikottu.

Tutkimuksessa ryhmä keräsi kuvia koirista, jotka voivat mahdollisesti rikkoa asunnon sääntöä, joka kieltää aggressiiviset rodut rakennuksesta. Ryhmiä pyydettiin sitten antamaan normatiivisia ja kuvailevia vastauksia.

Lue myös:  Syöpäuhka Bill Gatesin Keinotekoisesta Lihasta: Tutkimusten Hälyttävät Tulokset

Kuvaavaa tiimiä ei informoitu koiria koskevasta yleisestä käytännöstä, ja sitä pyydettiin tunnistamaan, oliko kuvassa tai tekstissä kolme tosiasiallista elementtiä, kuten koiran aggressio. Heidän vastauksensa auttoivat muodostamaan tuomioita. Jos käyttäjä sanoi, että kuvassa oli aggressiivinen koira, käytäntöä pidettiin rikotun. Toisaalta normatiiviselle ryhmälle kerrottiin aggressiivisia koiria koskevista säännöistä ja pyydettiin selvittämään, rikkoiko jokainen kuva sääntöä ja jos niin miksi.

Osallistujat havaitsivat 20 prosenttia todennäköisemmin koodirikkomuksen kuvailevalla menetelmällä kuin normatiivisella menetelmällä. Jos koiran käyttäytymistä koskevia kuvailevia tietoja olisi käytetty tekoälymallin ohjelmoimiseen , siitä olisi todennäköisemmin langetettu ankaria rangaistuksia.

Näiden epätarkkuuksien skaalaamisella todellisiin skenaarioihin voi olla merkittäviä seurauksia. Jos esimerkiksi deskriptiivisen mallin avulla ennakoidaan, voiko henkilö tehdä saman rikoksen useammin kuin kerran, se voi tuomita ankarampia tuomioita kuin ihminen ja johtaa korkeampiin takuisiin tai pidempiin rikosrangaistuksiin. Tästä syystä asiantuntijat ovat kannattaneet tiedon läpinäkyvyyden lisäämistä ja väittävät, että tiedon keräämisen ymmärtäminen voi auttaa määrittämään sen mahdollisia käyttötarkoituksia.

“Useimmat tekoälyn/koneoppimisen tutkijat olettavat, että ihmisten arvioinnit datassa ja merkinnöissä ovat puolueellisia. Mutta tuloksemme osoittavat huolestuttavamman ongelman: nämä mallit eivät edes toista jo ennestään puolueellisia inhimillisiä arvioita, koska tiedot, joihin niitä koulutetaan, ovat virheellisiä”, sanoo Marzyeh Ghassemi, apulaisprofessori ja Healthy ML Group in the Computerin johtaja. Science and Artificial Intelligence Laboratory (CSAIL), yliopiston julkaisu .

Lue myös:  Asiantuntija sanoo, että on hyvä asia, että tekoäly voi korvata 80 % työpaikoista ”muutaman seuraavan vuoden aikana”

“Ratkaisu on tunnustaa, että jos haluamme toistaa ihmisten harkintaa , meidän tulee käyttää vain siinä yhteydessä kerättyä tietoa. Muuten päädymme järjestelmiin, jotka määräävät erittäin ankaria malleja, paljon tiukempia kuin mitä ihmiset määräävät. Ihminen näkisi vivahteita tai tekisi eroja, kun taas nämä mallit eivät, Ghassemi selittää.

Science Advances -lehdessä julkaistussa tutkimuksessa ryhmä testasi kolmea muuta tietojoukkoa. Tulokset vaihtelivat kahdeksalla prosentilla lisääntyneestä todennäköisyydestä tunnistaa sääntörikkomus käyttämällä kuvailevia vastauksia pukeutumiskoodin rikkomiseen, 20 prosentin kasvuun aggressiivisten koirakuvien kohdalla.

”Ehkä tapa, jolla ihmiset ajattelevat sääntörikkomuksista poikkeaa siitä, miten he ajattelevat kuvailevista tiedoista. Yleensä normatiiviset päätökset ovat yleensä lievempiä”, sanoo pääkirjailija Aparna Balagopalan. “Tiedoilla on todella merkitystä. On erittäin tärkeää kohdistaa koulutuskonteksti käyttöönottokontekstiin, kun koulutetaan malleja sääntörikkomusten havaitsemiseksi.”

Tiimin tulevaisuuden suunnitelmana on tutkia ammattilaisten, kuten lakimiesten ja lääkäreiden, osallistumisen vaikutusta tietojen syöttämiseen.

Lähde: ActivistPost.com