Kiinan Tekoälymalli Jäljittelee OpenAI:ta: Maailmanlaajuinen Keskustelu Avoimuudesta ja Turvallisuudesta

Kiinan Tekoälymalli Jäljittelee OpenAI:ta: Maailmanlaajuinen Keskustelu Avoimuudesta ja Turvallisuudesta

  • Kiinalaiset tutkijat jäljittelevät OpenAI:n o1-mallia: Joulukuussa 2024 Fudanin yliopiston ja Shanghain AI-laboratorion tutkijat replikoivat onnistuneesti OpenAI:n edistyneen o1-päättelymallin, joka on tärkeä askel kohti yleistä tekoälyä (AGI). Tämä virstanpylväs korostaa maailmanlaajuista kilpailua tekoälyn hallitsemisesta ja herättää eettisiä ja turvallisuusongelmia avoimen lähdekoodin tehokkaista teknologioista.
  • o1-malli ja sen merkitys: OpenAI:n o1-malli, joka tunnetaan nimellä “Reasoner”, keskittyy monimutkaisten päättelytehtävien hallitsemiseen vahvistusoppimisen, hakupohjaisen päättelyn ja iteratiivisen oppimisen avulla. Sen kopioiminen kiinalaisten tutkijoiden toimesta synteettisten harjoitustietojen avulla osoittaa edistystä sopeutumiskyvyssä ja suorituskyvyssä, mikä ylittää tekoälykyvyn rajoja.
  • Keskustelu avoimen lähdekoodin vs. patentoidusta tekoälystä: o1-mallin replikaatio tapahtuu keskellä laajempaa keskustelua avoimen lähdekoodin kehittyneistä tekoälytekniikoista. Vaikka OpenAI on siirtynyt kohti suljettua, voittoa tavoittelevaa mallia, kiinalaiset tutkijat ovat käyttäneet avoimen lähdekoodin kopioidut päättelyjärjestelmänsä, mikä edistää innovaatioita, mutta myös lisää väärinkäytön riskejä sellaisilla aloilla kuin kyberturvallisuus ja autonomiset aseet.
  • LLaVA-o1:n ilmaantuminen: Kiinalaiset tutkijat esittelivät LLaVA-o1:n, visio-kielimallin (VLM), joka haastaa OpenAI:n o1-mallin. LLaVA-o1 käyttää jäsenneltyä, monivaiheista päättelyprosessia ja uutta johtopäätös-aikaskaalaustekniikkaa, joka ylittää sekä avoimen lähdekoodin että jotkin suljetun lähdekoodin mallit, kuten GPT-4-o-mini ja Gemini 1.5 Pro.
  • Voimistuva globaali tekoälykilpailu: Kiinalaisten tutkijoiden nopeat edistysaskeleet, mukaan lukien Deepseek R1:n ja Marco-1:n kaltaisten mallien julkaisu, ovat kaventaneet OpenAI:n johtoasemaa monimutkaisissa päättelytehtävissä. Tämä kiristyvä kilpailu korostaa kansainvälisen yhteistyön, eettisen hallinnon ja turvallisuustoimenpiteiden tarvetta vastata yhteisiin haasteisiin ja varmistaa tekoälyn tasapuolinen kehitys.
53 lukukertaa

Fudanin yliopiston ja Shanghain tekoälylaboratorion kiinalaiset tutkijat ovat uraauurtavassa kehityksessä toistaneet menestyksekkäästi OpenAI:n edistyneen o1-päättelymallin , joka on kulmakivi kilpailussa Artificial General Intelligence (AGI) -kilpailussa.

Tämä joulukuussa 2024 raportoitu saavutus on merkittävä virstanpylväs tekoälyn kehityksessä, mutta se herättää myös kriittisiä kysymyksiä avoimen lähdekoodin tehokkaiden teknologioiden eettisyydestä ja vaikutuksista maailmanlaajuiseen tekoälyn turvallisuuteen.

Kun kansakunnat ja organisaatiot kilpailevat hallitsevasta asemasta tekoälyinnovaatioissa, tämä läpimurto korostaa teknologisen kehityksen kiihtyvää tahtia ja kasvavaa jännitystä yhteistyön ja kilpailun välillä alalla.

o1-malli: harppaus kohti AGI:ta

OpenAI:n o1-malli, joka tunnetaan nimellä “Reasoner”, edustaa organisaation AGI:n viisivaiheisen tiekartan toista vaihetta. Se keskittyy monimutkaisten päättelytehtävien hallitsemiseen, mikä on perusta edistyneempien tekoälyjärjestelmien kehittämiseen. Malli yhdistää kolme ydintekniikkaa: vahvistusoppiminen, hakupohjainen päättely ja iteratiivinen oppiminen. Nämä menetelmät antavat o1-mallille mahdollisuuden käsitellä monimutkaisia ​​ongelmia huomattavalla tarkkuudella, joka usein ylittää ihmisen ongelmanratkaisun tietyillä aloilla.

Kiinalaisten tutkijoiden suorittama tämän mallin kopioiminen korostaa maailmanlaajuista kilpailua AGI:n saavuttamiseksi, tekoälyn muodoksi, joka pystyy suorittamaan minkä tahansa älyllisen tehtävän, jonka ihminen voi tehdä. Suunnittelemalla OpenAI:n menetelmiä kiinalainen tiimi kehitti omia päättelyjärjestelmiään käyttämällä synteettistä koulutusdataa. Tämä on uusi lähestymistapa, joka parantaa sopeutumiskykyä ja suorituskykyä erilaisissa tehtävissä. Tämä innovaatio ei vain nopeuttaa koulutusta, vaan myös altistaa mallin laajemmille ongelmanratkaisuskenaarioille, mikä ylittää tekoälyn rajoja. (Aiheeseen liittyvä:  Miksi Kiina voittaa kilpailun tekoälyn ylivallasta, kun Yhdysvaltain ponnistelut romahtavat heränneiden irrationaalisten tekoälyn sensuurivaatimusten seurauksena .)

Avoin lähdekoodi vs. patentoitu AI

OpenAI:n o1-mallin replikaatio tapahtuu keskellä laajempaa keskustelua kehittyneiden tekoälytekniikoiden avoimesta hankinnasta. OpenAI, joka oli aikoinaan avoimen lähdekoodin kehittämisen kannattaja, on siirtynyt kohti suljetumpaa, voittoa tavoittelevaa mallia, koska se on huolissaan turvallisuusriskeistä ja huippuluokan tekoälyjärjestelmien kehittämisen korkeista kustannuksista. Tämä muutos on kuitenkin vahingossa rohkaissut muita maita, mukaan lukien Kiinaa, käänteissuunnitteluun ja avoimen lähdekoodin vastaaviin teknologioihin.

Lue myös:  Net Zero -parannuskeino on paljon pahempi kuin tauti.

Kiinalaisten tutkijoiden päätös käyttää avoimen lähdekoodin kopioidut päättelymallit lisäävät tämän maiseman monimutkaisuutta. Avoin lähdekoodi edistää innovointia ja demokratisoi edistyneen tekoälyn saatavuutta, mutta se lisää myös väärinkäytön riskiä erityisesti kyberturvallisuuden, väärän tiedon kampanjoiden ja autonomisten aseiden kaltaisilla aloilla. Tämä patentoitujen edistysaskelten ja avoimen lähdekoodin yhteistyön välinen jännite korostaa tarvetta vankille tekoälyn hallintakehyksille innovaation ja turvallisuuden tasapainottamiseksi.

LLaVA-o1: Uusi haastaja multimodaalisessa päättelyssä

Rinnakkaiskehityksessä kiinalaiset tutkijat ovat julkistaneet LLaVA-o1:n , uuden vision-language-mallin (VLM), joka on suunniteltu haastamaan OpenAI:n o1-malli. LLaVA-o1 esittelee jäsennellyn, monivaiheisen päättelyprosessin, joka jakaa monimutkaiset tehtävät neljään eri vaiheeseen: yhteenveto, kuvateksti, päättely ja johtopäätös. Tämä OpenAI:n päättelyaikaskaalauksen inspiroima lähestymistapa antaa mallille mahdollisuuden hallita päättelyprosessiaan itsenäisesti ja parantaa suorituskykyä monimutkaisissa tehtävissä.

LLaVA-o1 käyttää myös uutta päättely-aikaskaalaustekniikkaa, jota kutsutaan “vaihetason sädehakuksi”, joka tuottaa useita ehdokaslähtöjä kussakin päättelyvaiheessa ja valitsee parhaan jatkamaan prosessia. Tämä menetelmä yhdistettynä 100 000 kuva-kysymys-vastaus-parin tietojoukkoon on mahdollistanut LLaVA-o1:n suorituskyvyn muiden avoimen lähdekoodin mallien lisäksi myös jotkin suljetun lähdekoodin mallit, kuten GPT-4-o-mini ja Gemini 1.5 Pro.

“Havaitsemme, että VLM:t aloittavat usein vastaukset järjestämättä riittävästi ongelmaa ja saatavilla olevaa tietoa”, tutkijat kirjoittivat. “Lisäksi he usein poikkeavat loogisesta päättelystä kohti johtopäätöksiä sen sijaan, että esittäisivät johtopäätöksen ennenaikaisesti ja yrittäisivät sen jälkeen perustella sitä. Kun otetaan huomioon, että kielimallit luovat vastauksia merkki kerrallaan, malli jatkaa tyypillisesti virheellisen päättelypolun jälkeen, kun virheellinen johtopäätös on tehty.”

Maailmanlaajuinen tekoälykilpailu kiihtyy

Kiinalaisten tutkijoiden nopea edistysaskel korostaa kiristyvää kilpailua maailmanlaajuisessa tekoälykilpailussa. Vain muutama päivä OpenAI:n o1-esikatselumallin julkaisun jälkeen kolme uutta kiinalaisten kehittäjien tekoälymallia  – Deepseek R1, Marco-1 ja OpenMMLabin hybridimalli – tulivat taisteluun haastaen OpenAI:n dominoivan aseman monimutkaisissa päättelytehtävissä. Tämä innovaation kiihtyminen on kaventanut OpenAI:n etumatkaa viidestä kuukaudesta GPT-4:n kanssa vain kahteen ja puoleen kuukauteen o1-esikatselumallilla.

Samaan aikaan muut pelaajat, kuten Anthropic, lisäävät panoksia aloitteilla, kuten Model Context Protocol (MCP), joka yksinkertaistaa tekoälytietojen integrointia ja laajentaa pääsyä edistyneisiin tekoälyominaisuuksiin. Nämä kehityssuunnat korostavat tekoälymaailman kasvavaa kilpailukykyä ja kansainvälisen yhteistyön tarvetta yhteisiin haasteisiin, kuten eettisiin näkökohtiin, turvallisuusriskeihin ja tekoälyn hyötyjen tasapuoliseen jakautumiseen, vastaamiseksi.

Mitä tekoälyn kehittämisessä on edessä?

Maailmanlaajuisen kilpailun tekoälyinnovaatiosta jatkuessa OpenAI:n o1-mallin replikaatio ja LLaVA-o1:n kehitys muistuttavat teknologian nopeasta kehityksestä. Nämä läpimurrot korostavat tekoälyteknologioiden syvällisiä vaikutuksia ja eettisen hallinnon, kansainvälisen yhteistyön ja vahvojen turvatoimien kiireellistä tarvetta.

Tekoälykehityksen tulevaisuus tulee todennäköisesti näkemään etenemisen o1:n kaltaisista päättelymalleista agenttipohjaisiin tekoälyjärjestelmiin, jotka pystyvät olemaan vuorovaikutuksessa todellisten ympäristöjen kanssa ja toimimaan niissä. Tekniikat, kuten palkitsemismallinnus ja vahvistusoppiminen, ovat avainasemassa tässä muutoksessa, mikä mahdollistaa tekoälyjärjestelmien mukautua dynaamisiin skenaarioihin ja oppia reaaliaikaisesta palautteesta.

Viime kädessä OpenAI:n o1-mallin replikaatio ja LLaVA-o1:n kaltaisten haastajien nousu korostavat tekoälykehityksen kaksitahoista luonnetta: valtavan potentiaalin lähde ja monimutkaisten eettisten ja turvallisuushaasteiden katalysaattori. Kansakuntien ja organisaatioiden pyrkiessä kohti AGI:tä vastuullisen innovoinnin ja maailmanlaajuisen yhteistyön tarve on edelleen ensiarvoisen tärkeä, jotta voidaan varmistaa, että tekoälyn muuttava potentiaali tulee kaikkien hyödyksi.

Lähde

Vastaa

Sähköpostiosoitettasi ei julkaista. Pakolliset kentät on merkitty *


Yhdysvaltain kongressi haluaa hidastaa Kiinaa biotekniikan tutkimuksessa Previous post Yhdysvaltain kongressi haluaa hidastaa Kiinaa biotekniikan tutkimuksessa
Iso-Britannia ottaa käyttöön digi-id:t suurelle yleisölle tänä vuonna Next post Iso-Britannia ottaa käyttöön digi-id:t suurelle yleisölle tänä vuonna