28.4.2024

Publication-X

"in tenebris moderni diei, solum bellum est"

Big Tech yliherrat tuomitsevat tekoäly sääntelyn puutteen, sitten taistelevat sääntelyviranomaisia pysymään poissa tieltä

6 min read
Big Tech yliherrat tuomitsevat tekoäly sääntelyn puutteen, sitten taistelevat sääntelyviranomaisia pysymään poissa tieltä

Pikalinkki tähän artikkeliin: https://publication-x.com/1trt

Suuret teknologiayritykset vastustavat ehdotettuja liittovaltion sääntöjä, joilla pyritään lisäämään potilaiden hoidossa käytettävien tekoälytyökalujen valvontaa, STAT raportoi.

Yritykset, kuten Google, Amazon ja Epic, aikovat tehdä odottamattomia voittoja tekoälyn laajentumisesta terveydenhuollossa myymällä vakuutusyhtiöille ja palveluntarjoajille monenlaisia työkaluja kaikkeen kliinisten dokumentointimenettelyjen automatisoinnista vakuutusvaatimusten arviointiin ja virtuaalihoidon tarjoamiseen.

Teknologiateollisuuden lisäksi suuret terveydenhuollon palveluntarjoajat, suuret yksityiset vakuutusyhtiöt ja lääketieteellisten ohjelmistojen myyjät vastustivat Office of the National Coordinator for Health Information Technologyn (ONC) ehdotusta rajoittaa ja laajentaa terveydenhuollon päätöksentekoa tukevien tekoäly- ja koneoppimistekniikoiden (ML) läpinäkyvyyttä – ONC kutsuu niitä “ennakoiviksi päätöksenteon tukitoimenpiteiksi”.

ONC, joka on sijoitettu Yhdysvaltain terveysministeriön alaisuuteen ja valvoo sähköisiä terveyskertomuksia, ehdotti huhtikuussa sääntöjä “terveystietoja, teknologiaa ja yhteentoimivuutta” varten.

Säännöt ovat julkisesti kommentoitavana 20. heinäkuuta asti.

Ehdotetuilla säännöillä, joilla päivitetään 21st Century Cures Act -lakia, pyritään tukemaan Bidenin hallinnon toimeksiantoa lisätä yleistä luottamusta tekoälyyn antamalla lääkäreille sähköisissä terveyskertomusjärjestelmissä enemmän tietoa tekoälyalgoritmeista, jotta he voivat paremmin arvioida teknologian soveltuvuutta tiettyyn potilasryhmään tai olosuhteisiin, ONC kertoi toimittajille.

Journal of Medical Internet Research -lehdessä viime vuonna julkaistussa tutkimuksessa todettiin, että “vaikka tekoälyn hyödyistä kliinisten tulosten parantamisessa on esitetty runsaasti väitteitä, vankkaa näyttöä on niukasti”.

Todisteiden puute ei kuitenkaan ole estänyt teknologiajättejä kehittämästä tekoälytyökaluja tai yksityisiä terveydenhuoltoyhtiöitä käyttämästä niitä yhä useammin “auttamaan tekemään elämää mullistavia päätöksiä vähäisellä riippumattomalla valvonnalla”, STAT totesi tutkittuaan salaisia yritysasiakirjoja ja satoja sivuja liittovaltion asiakirjoja ja oikeudenkäyntiasiakirjoja.

Tekoälyn laajentaminen terveydenhuoltoon on kannattajien mukaan helppo tapa leikata kustannuksia ja parantaa hoitoa esimerkiksi vähentämällä potilaiden ja lääkäreiden välistä aikaa, erityisesti perusterveydenhuollossa.

Kriitikot, kuten lakimies ja terveydenhuollon puolesta kampanjoiva Ady Barkan, sanovat kuitenkin, että on yhä enemmän todisteita siitä, että tekoälyn päätöksenteko terveydenhuollossa on vahingoittanut potilaita. “Robotit eivät saisi tehdä päätöksiä elämästä tai kuolemasta”, hän sanoi.

Uusia sääntöjä ehdottaessaan ONC viittasi myös huolenaiheisiin lisääntyvästä todistusaineistosta, jonka mukaan ennakoivat mallit sekä tuovat mukanaan monia erilaisia riskejä, joilla on kielteisiä vaikutuksia potilaisiin ja yhteisöihin, että lisäävät niiden potentiaalia.

Vastauksena tähän ONC sanoi ehdottavansa uutta “päätöksentekoa tukevaa toimenpidettä” koskevaa kriteeriä, jolla luotaisiin uusia avoimuus- ja riskinhallintaodotuksia tekoäly- ja ML-teknologialle, jotka auttavat terveydenhuollon päätöksentekoa.

Uusia säännöksiä sovellettaisiin myös terveydenhuollon tietotekniikkamalleihin, jotka ovat yhteydessä tekoälyyn.

ONC:n ehdottamat keskeiset muutokset edellyttäisivät, että kaikkien näiden järjestelmien on asetettava käyttäjien saataville – selkokielellä – “ravintoarvomerkintää” muistuttavaa tietoa siitä, miten algoritmit toimivat.

Säännöissä edellytetään myös, että kaikille järjestelmille kehitetään uudet riskinhallintakäytännöt. Riskinhallintaa koskevien tietojen olisi oltava julkisesti saatavilla.

Kehittäjien olisi myös tarjottava mekanismi julkista palautetta varten.

“National Law Review -lehden mukaan DSI:n asetusehdotus “vaikuttaa merkittävästi tekoäly- ja ML-työkalujen kehittämiseen, käyttöönottoon ja käyttöön terveydenhuollossa, jos se viimeistellään”.

Teknologiajätit sanovat, että avoimuussäännöt pakottaisivat ne paljastamaan “liikesalaisuuksia

Yli 200 julkista kommenttia, jotka ONC:lle on jätetty ehdotuksesta – enimmäkseen teknologia- ja terveydenhuoltoalan yrityksiltä, joihin säännöksiä sovelletaan – “tekevät selväksi taistelun, joka on kehittymässä, kun yritykset kilpailevat yhä tehokkaampien tekoälytyökalujen käyttöönotosta turvallisuuden kannalta kriittisillä aloilla, kuten terveydenhuollossa, jossa mahdolliset voittomarginaalit ovat paljon suuremmat kuin virhemarginaali”, STAT sanoi.

Monet Googlen omat tutkijat sekä huipputeknologian miljardöörit ja tekoälyn kehittäjät ovat julkisesti ilmaisseet huolensa siitä, että tekoäly aiheuttaa eksistentiaalisen uhan ihmiskunnalle ja välittömiä riskejä ihmisten terveydelle ja hyvinvoinnille.

Silti teknologiayritykset, vakuutusyhtiöt ja palveluntarjoajien yhdistykset ilmaisivat ONC:lle lähettämissään kirjeissä “huolensa” ehdotetuista asetuksista. Niiden mukaan ehdotetut säännöt ovat “liian laajat” ja vaadittu avoimuus pakottaisi ne paljastamaan “immateriaalioikeuksia” ja “liikesalaisuuksia”.

Google vastusti kommenteissaan “liian laajaa tai tarpeetonta julkistamisvelvoitetta”, joka lisäisi kehittäjille ja siten kuluttajille aiheutuvia kustannuksia.

Google totesi myös, että generatiivisen tekoälyn tai suurten kielimallien, kuten BARDin, sisällyttäminen “vähäriskisten” tekoälytyökalujen rinnalle aiheuttaisi yrityksille kohtuuttoman rasitteen.

Jopa Maailman terveysjärjestö WHO on kuitenkin todennut, että tekoälyyn perustuvien suurten kielimallien työkalujen puutteellinen sääntely vaarantaa ihmisten hyvinvoinnin, ja mainitsi erityisesti BARDin ja ChatGPT:n kaltaiset ohjelmat.

Amazon kirjoitti myös, että soveltamalla sääntöjään laajaan teknologialuokkaan, joka perustuu ennakoivaan tekoälyyn/ML:ään, ONC ulottuu “laajalti pidemmälle” kuin mikä olisi asianmukaista alan sääntelemiseksi ja riskien lieventämiseksi.

Epic Systems, maan suurin sähköisten terveyskertomusten toimittaja, väitti kommenteissaan myös, että ONC:n ehdotetut säännöt ovat liian laajoja, ja totesi, että ONC:n ei pitäisi tehdä julkisia tietoja tekoälyn toiminnasta edellytykseksi terveydenhuollon tietotekniikkajärjestelmien sertifioinnille.

“Markkinoiden avoimuudessa – ja viime kädessä innovaatiokannustimissa – syntyisi huomattava epätasapaino, jos sertifioitujen terveydenhuollon tietotekniikan kehittäjien on julkistettava henkinen omaisuutensa, kun taas sertifioimattomien ennustemallien kehittäjiltä ei vaadita samaa julkistamista”, yhtiö kirjoitti.

Valvonnan puute antaa yrityksille mahdollisuuden manipuloida algoritmeja voittojensa kasvattamiseksi.

Tekoälyn ja multimodaalisen logiikan kasvavan vastuuvapauden ja sääntelemättömyyden arvostelijat, mukaan lukien tekoälyä kehittävät tutkijat ja terveydenhuollon tarjoajat, väittivät, että ehdotetut säännöt eivät mene tarpeeksi pitkälle yleisön informoimiseksi ja suojelemiseksi.

Michiganin yliopiston 34 tutkijasta koostuvan monitieteisen ryhmän ONC:lle toimittamassa kirjeessä, jonka allekirjoittajina on yli 30 muuta terveydenhuollon tutkimuslaitosta eri puolilta Yhdysvaltoja ja Eurooppaa, kehotettiin ONC:tä soveltamaan tiukempia säännöksiä.

Heidän mukaansa yleisölle olisi myös tiedotettava, mitä tietoja näihin malleihin käytetään – tähän sisältyy avoimuuden vaatiminen sen suhteen, mitä muuttujia mallit käyttävät ennusteiden tekemisessä, ja myös sen suhteen, mistä AI/ML-järjestelmien kouluttamiseen ja arviointiin käytettävät tiedot ovat peräisin.

Näiden tietojen antamatta jättäminen yleisölle on johtanut “viimeaikaisiin vastareaktioihin ja haittoihin, jotka ovat aiheutuneet ennustemallien käytöstä terveydenhuollossa”, he kirjoittivat, kuten rotuun, sukupuoleen ja luokkiin liittyviin ennakkoluuloihin ja virheellisiin ennusteisiin, jotka perustuvat huonosti valittuihin tietoihin ja jotka ovat johtaneet huonompiin terveystuloksiin.

Uudet todisteet osoittavat kuitenkin myös, miten avoimuuden ja sääntelyn puute mahdollistaa sen, että yritykset voivat manipuloida algoritmeja kasvattaakseen tulostaan – millä on vakavia seurauksia ihmisten terveydelle.

Maaliskuussa STATin tutkimuksessa todettiin, että tekoäly johtaa Medicare Advantage -ohjelmassa räjähdysmäisesti kasvavaan määrään lääketieteellisten korvausvaatimusten hylkäyksiä. Tutkimus paljasti, että vakuutusyhtiöt käyttivät naviHealthin luomia sääntelemättömiä ennakoivia algoritmeja määrittääkseen, missä vaiheessa ne voivat uskottavasti keskeyttää iäkkäiden potilaiden hoidon maksamisen.

STAT kertoi viime viikolla, että sen jälkeen kun United Healthcare osti naviHealthin vuonna 2020, ongelma paheni, eivätkä lääkäritkään voineet kumota algoritmin tekemiä hoitomäärityksiä ilman johdon vakavaa vastustusta.

ONC:lle toimittamissaan kommenteissa United Healthcare vastusti myös kiivaasti useita OTC-sääntöehdotuksen näkökohtia, jotka lisäisivät juuri tällaisia algoritmeja koskevia säännöksiä.

Yhtiö sanoi, että ONC:n DSI:n määritelmä oli “epämääräinen ja liian laaja” ja että se siirtäisi DSI:n merkityksen “kliinisten käyttötarkoitusten ulkopuolelle” ja asettaisi raskaita vaatimuksia matalan riskin työkaluille.

Yritys vastusti myös ehdotettuja ONC:n vaatimuksia paljastaa tietoja algoritmien toiminnasta, koska kehittäjälle aiheutuu riskejä siitä, että sen on jaettava arkaluonteisia tai omistusoikeudellisia tietoja käyttäjien kanssa.

Jotkut aktivistit ovat käynnistäneet Stop #DeathByAI -kampanjan lopettaakseen tekoälyn väärinkäytökset Medicare Advantage -ohjelmassa, Common Dreams raportoi.

Tämä on kuitenkin vain jäävuoren huippu näillä räjähdysmäisesti kasvavilla markkinoilla, joiden Markets and Markets ennustaa olevan yli 102 miljardin dollarin arvoiset vuoteen 2028 mennessä – nykyisestä 14,6 miljardista dollarista.

Lähde: Technocracy.news