
DOGEN suunnitelmat ihmisten korvaamisesta tekoälyllä ovat jo käynnissä
Presidentin ja hallituksen tehokkuusministeriön yrityksissä supistaa ja muuttaa virkamieskuntaa on meneillään uusi vaihe. Idea on yksinkertainen: käytä generatiivista tekoälyä automatisoidaksesi ihmisten aiemmin tekemää työtä.
Trumpin hallinto testaa uutta chatbotia 1,500 10,000 liittovaltion työntekijän kanssa General Services Administrationissa ja saattaa julkaista sen koko virastolle heti perjantaina – mikä tarkoittaa, että sitä voisi käyttää yli 100 XNUMX työntekijää, jotka ovat vastuussa yli XNUMX miljardin dollarin sopimuksista ja palveluista. Tämä artikkeli perustuu osittain keskusteluihin useiden GSA:n nykyisten ja entisten teknologiaa tuntevien työntekijöiden kanssa, jotka kaikki pyysivät nimettömyyttä puhuakseen luottamuksellisista tiedoista. se perustuu myös tarkistamiini sisäisiin GSA-asiakirjoihin sekä ohjelmiston koodipohjaan, joka näkyy GitHubissa.
Botti, jonka GSA:n johto suunnittelee liittovaltion työntekijöiden tuottavuuden lisääjäksi, on osa DOGEn ja sen liittolaisten laajempaa pelikirjaa. Puhuessaan GSA:n laajemmista suunnitelmista Thomas Shedd, entinen Teslan insinööri, joka valittiin äskettäin GSA:n IT-divisioonan Technology Transformation Servicesin (TTS) johtajaksi, sanoi viime kuussa pidetyssä yleiskokouksessa, että virasto ajaa “AI-first-strategiaa”. Kokouksessa, josta sain tallenteen, Shedd sanoi, että “kun pienennämme liittovaltion hallituksen kokonaiskokoa, kuten kaikki tiedätte, ohjelmia on edelleen oltava olemassa, mikä on valtava mahdollisuus teknologian ja automaation voimaantuloon.” Hän ehdotti, että “koodausagentteja” voitaisiin tarjota kaikkialle hallitukseen – viittaus tekoälyohjelmiin, jotka voivat kirjoittaa ja mahdollisesti ottaa käyttöön koodia ihmisen sijasta. Lisäksi Shedd sanoi, että tekoäly voisi “suorittaa analyysin sopimuksista” ja ohjelmistoja voitaisiin käyttää “automatisoimaan” GSA:n “rahoitustoiminnot”.
Pieni teknologiatiimi GSA:ssa nimeltä 10x aloitti ohjelman kehittämisen presidentti Joe Bidenin toimikaudella, ja alun perin se ei pitänyt sitä tuottavuuden työkaluna vaan tekoälyn testausalustana: paikka kokeilla tekoälymalleja liittovaltion käyttöön, samalla tavalla kuin yksityiset yritykset luovat sisäisiä räätälöityjä tekoälytyökaluja. Mutta DOGE:n liittolaiset ovat pyrkineet nopeuttamaan työkalun kehitystä ja käyttämään sitä työchatbotina joukkoirtisanomisten keskellä (kymmeniä tuhansia liittovaltion työntekijöitä on eronnut tai irtisanottu sen jälkeen, kun Elon Musk aloitti työnsä hyökkäys hallituksessa). Chatbotin käyttöönotto oli ensimmäinen huomattava by Wired, mutta lisätietoja sen laajemmasta julkaisusta ja ohjelmiston aiemmasta kehityksestä ei ollut raportoitu ennen tätä tarinaa.
Ohjelmaa, jota kutsuttiin lyhyesti nimellä “GSAi” ja joka tunnetaan nykyään sisäisesti nimellä “GSA Chat” tai yksinkertaisesti “chat”, kuvattiin työkaluksi sähköpostien luonnostamiseen, koodin kirjoittamiseen ja paljon muuhun! sähköpostissa, jonka Zach Whitman, GSA:n tekoälypäällikkö, lähetti joillekin ohjelmiston varhaisille käyttäjille. Liittovaltion työntekijöiden sisäisessä oppaassa todetaan, että GSA:n chatbot “auttaa sinua työskentelemään tehokkaammin ja tehokkaammin”. Botin käyttöliittymä, jonka olen nähnyt, näyttää ja toimii samalla tavalla kuin ChatGPT:n tai minkä tahansa vastaavan ohjelman käyttöliittymä: Käyttäjät kirjoittavat kehoteruutuun ja ohjelma vastaa. GSA aikoo lopulta levittää tekoälyn muille valtion virastoille, mahdollisesti nimellä “AI.gov”. Järjestelmän avulla käyttäjät voivat tällä hetkellä valita Metan ja Anthropicin lisensoimista malleista, ja vaikka toimiston henkilökunta ei tällä hetkellä voi ladata asiakirjoja chatbotille, he todennäköisesti voivat lähettää sen tulevaisuudessa, sanoo GSA:n työntekijä, joka tuntee projektin ja chatbotin koodivaraston. GSA:n työntekijä kertoi minulle, että ohjelmaa voitaisiin käyttää suunnittelemaan suuria hallituksen hankkeita, tiedottamaan voimassaolevista vähennyksistä tai tekemään kyselyitä keskitetyistä liittovaltion tietovarastoista.
DOGE:n tiedottajat eivät vastanneet kommenttipyyntöihini, ja Valkoisen talon lehdistötoimisto ohjasi minut GSA:han. Vastauksena yksityiskohtaiseen luetteloon GSA:n vt. lehdistösihteeri Will Powell kirjoitti sähköpostitse lähetetyssä lausunnossa, että “GSA arvioi parhaillaan käytettävissä olevia IT-resurssejaan varmistaakseen, että henkilökuntamme voi suorittaa tehtävänsä amerikkalaisten veronmaksajien tukemiseksi”, ja että virasto “suorittaa kattavia testejä varmistaakseen kaikkien työntekijöidemme käytettävissä olevien työkalujen tehokkuuden ja luotettavuuden.”
Tällä hetkellä tekoälyä käytetään töissä, eikä GSA:n chatbotilla välttämättä ole dramaattista vaikutusta hallituksen toimintaan. Mutta se on vain yksi pieni esimerkki paljon suuremmasta ponnistelusta, kun DOGE jatkaa virkamieskunnan tuhoamista. Opetusministeriössä DOGE-neuvojat ovat kuulemma syötti arkaluonteisia tietoja virastojen menoista tekoälyohjelmiin tunnistaakseen paikkoja, joissa leikata. DOGE kuulemma aikoo käyttää tekoälyä määrittääkseen, pitäisikö hallituksen työntekijöiden säilyttää työpaikkansa. Toisessa TTS-kokouksessa viime viikon lopulla – jonka tallenteen tarkastelin – Shedd sanoi odottavansa, että divisioona on “vähintään 50 prosenttia pienempi” viikkojen kuluessa. (TTS:ssä toimii tiimi, joka rakensi GSA Chatin.) Horisontissa häämöttää luultavasti kiistanalaisia mahdollisuuksia tekoälylle: Esimerkiksi ulkoministeriö aikoo käyttää tekniikkaa auttaakseen tarkistamaan kymmenien tuhansien opiskelijaviisuminhaltijoiden sosiaalisen median viestejä, jotta osasto voi peruuttaa viisumit opiskelijoilta, jotka näyttävät tukevan terroristiryhmiä. Axios.
Kiirehtiminen generatiivisen tekoälyn käyttöönottoon sisältää vakiintuneita riskejä. Tekoälymalleissa on kaikenlaista harhaa, ne kamppailevat tosiasioiden tarkkuuden kanssa, ovat kalliita ja niissä on läpinäkymätön sisäinen toiminta; paljon voidajaei mennä pieleen, vaikka tekniikkaa lähestytään vastuullisemmin. GSA näytti olevan tietoinen tästä todellisuudesta, kun se aloitti chatbot-työskentelyn viime kesänä. Silloin 10x, GSA:n pieni teknologiatiimi, alkoi kehittää niin sanottua “10x AI Sandboxia”. Kaukana yleiskäyttöisestä chatbotista hiekkalaatikko suunniteltiin turvalliseksi ja kustannustehokkaaksi ympäristöksi liittovaltion työntekijöille tutkia, kuinka tekoäly voisi auttaa heidän työtään GitHubissa olevan ohjelman koodikannan mukaan – esimerkiksi testaamalla kehotteita ja suunnittelemalla mukautettuja malleja. “Tämän asian taustalla oleva periaate ei ole näyttää sinulle, että tekoäly sopii kaikkeen, vaan yrittää kannustaa sinua kiinnittämään tekoälyä jokaiseen tuotteeseen, jonka ympärillä saatat ajatella”, 10x-insinööri sanoi varhaisessa hiekkalaatikon esittelyvideossa, “vaan pikemminkin tarjota yksinkertainen tapa käyttää näitä työkaluja ja luoda prototyyppejä nopeasti.”
Mutta Donald Trumpin nimitetyt henkilöt painostivat vapauttamaan ohjelmiston nopeasti chat-avustajana, ilmeisesti välittämättä siitä, mitkä tekniikan sovellukset voivat olla toteutettavissa. Tekoäly voisi olla hyödyllinen apu liittovaltion työntekijöille tietyillä tavoilla, koska GSA:n chatbot on kehystetty, mutta kun otetaan huomioon tekniikan taipumus luoda oikeudellisia ennakkotapauksia, se ei myöskään hyvin voinut. Äskettäin lähtenyt GSA:n työntekijä kertoi minulle: “He haluavat kerätä sopimustiedot tekoälyyn analysoidakseen niitä mahdollisten petosten varalta, mikä on hieno tavoite. Ja myös, jos voisimme tehdä sen, tekisimme sen jo.” Tekoälyn käyttäminen luo “erittäin suuren riskin ilmoittaa vääriä positiivisia tuloksia”, työntekijä sanoi, “enkä näe mitään, mikä voisi toimia tarkastuksena sitä vastaan”. GSA:n chat-työkalun varhaisille käyttäjille tarkoitettu ohjesivu huomauttaa huolenaiheista, mukaan lukien “hallusinaatiot” – alan termi, joka tarkoittaa tekoälyä, joka esittää luottavaisesti väärää tietoa todeksi – “puolueet vastaukset tai jatkuvat stereotypiat” ja “yksityisyyteen liittyvät ongelmat”, ja kehottaa työntekijöitä olemaan syöttämättä henkilökohtaisia tunnistetietoja tai arkaluonteisia luokittelemattomia tietoja. Sitä, kuinka jokin näistä varoituksista pannaan täytäntöön, ei ole määritelty.
Tietysti liittovaltion virastot ovat kokeilleet generatiivista tekoälyä useiden kuukausien ajan. Esimerkiksi ennen marraskuun vaaleja GSA oli aloittanut sopimuksen Googlen kanssa testatakseen, kuinka tekoälymallit “voivat parantaa tuottavuutta, yhteistyötä ja tehokkuutta” julkisen selvityksen mukaan. Department of Homeland Security, Health and Human Services ja Veterans Affairs sekä lukuisat muut liittovaltion virastot testasivat OpenAI:n, Googlen, Anthropicin ja muiden valmistajien työkaluja ennen avajaisia. Jonkinlainen liittovaltion chatbot oli luultavasti väistämätön.
Mutta ei välttämättä tässä muodossa. Biden suhtautui tekniikkaan varovaisemmin: Maamerkissä toimeenpaneva määräys ja myöhemmissä liittovaltion ohjeissa, edellinen hallinto korosti, että hallituksen tekoälyn käyttöä olisi testattava perusteellisesti, tiukat suojakaiteet ja julkista avoimuutta, kun otetaan huomioon tekniikan ilmeiset riskit ja puutteet. Ensimmäisenä virkakautensa Trump kumosi määräyksen Valkoisen talon kanssa myöhemmin sanonta että se oli asettanut “työläisen ja tarpeettoman hallituksen valvonnan”. Nyt DOGE ja Trumpin hallinto näyttävät aikovan käyttää koko liittovaltion hallitusta hiekkalaatikkona ja yli 340 miljoonaa amerikkalaista, joita he palvelevat mahdollisina koehenkilöinä.