Nykytekniikka antaa meille monia asioita.

Miksi Elon Muskin Grok AI palauttaa ChatGPT-vastaukset sanatarkasti?


Tämä ei ole sijoitusneuvontaa. Kirjoittajalla ei ole asemaa missään listatuista osakkeista. Wccftech.comilla on käytäntö ja etiikka.

Elon Muskin xAI on luonnehtinut Hänen Large Language Model (LLM) -mallinsa on ensimmäinen suuri askel kohti "maksimaalista totuutta etsivää tekoälyä", joka ymmärtää maailmankaikkeuden todellisen luonteen. Tekoälymalli näyttää kuitenkin toistaiseksi tyydyttävän OpenAI:n GPT LLM -vastausten repimiseen sanatarkasti, mikä on täydellinen poikkeama ensisijaisista korkeista tavoitteista, joiden oletetaan olevan Grok AI:n eetos.

Tällä hetkellä Grok pystyy tulkitsemaan jopa 25.000 XNUMX merkin pituisen kehotteen. LLM ei ole koulutettu vain Paalu – kaikkialla oleva tietojoukko tekoälymallien koulutukseen – mutta myös X:ltä tulevan datan vuorilla. Lisäksi Grok pystyy ilmeisesti käyttämään ja tulkitsemaan tietoa reaaliajassa integroitumalla sosiaalisen median X-alustaan.

Tämä vie meidät asian ytimeen. Elon Musk ilmoitti tällä viikolla, että Grok AI -malli on nyt kaikkien Platform X:n maksullisten tilaajien saatavilla. Tämän uuden mallin testaamiseksi ammattihakkeri Jax Winterbourne pyysi Grokia muokkaamaan haitallista koodia. Vastauksena LLM korvasi OpenAI:n GPT-vastauksen sanasta sanaan ja meni niin pitkälle, että se viittasi OpenAI:n käytäntöön tulostekstissä.

Winterbourne esittää sitten muutamia teorioita siitä, miksi tällaista räikeää regressiota tapahtuu, aina röyhkeästä ehdotuksesta, että Grok on yksinkertaisesti OpenAI:n GPT LLM:n johdannainen, paljon järkevämpään selitykseen, jonka mukaan regressiovaste on mallin hallusinaatioiden tulos.

Raportoimme äskettäin, että Grok suoritti kaikki muut LLM:t, mukaan lukien Anthropicin Claude 2, lukuun ottamatta OpenAI:n GPT-4:ää pitkässä matematiikan kokeessa, ja ansaitsi kokonaispistemäärän 59 prosenttia verrattuna GPT-68:n 4 prosenttiin. Tämä viittaa siihen, että AI-malli ei ole vain OpenAI:n GPT LLM:n johdannainen.

Näin ollen todennäköisin selitys tälle käytökselle on, että Grok on ilmeisesti saanut laajasti koulutusta GPT-vastauksissa. Siksi sen sijaan, että LLM olisi muotoillut ainutlaatuisen vastauksen viitaten xAI:n haitallisen koodin käytäntöihin, se yksinkertaisesti toisti OpenAI:n kannan. Tämä osoittaa myös, että nykyisen sukupolven tekoälymallit ovat vain ylistettyjä iteraatioita kiinalainen huone – ajatuskokeilu, jossa oletetaan, että tekoälymallit eivät oikein ymmärrä häntä tai he eivät ajattele.

Päivitys: xAI:n perustaja vastaa

Nyt meillä on vastaus xAI:n perustajalta Igor Babuschkinilta. Vanhempi xAI-virkamies myöntää, että Grokin koulutus sisälsi vahingossa joitain GPT-tuloksia.





VIA: wccftech.com

Seuraa TechWar.gr:ää Google-uutisissa

vastaus