Për BMS, autobus, industriale, kabllo instrumentesh.

Elon Musk dhe ekipi XAI filluan zyrtarisht versionin e fundit të Grok, Grok3, gjatë një rrjedhë të gjallë. Para kësaj ngjarje, një sasi e konsiderueshme e informacionit të lidhur, shoqëruar me hype promovuese 24/7 të Musk, ngriti pritjet globale për GROK3 në nivele të pashembullt. Vetëm një javë më parë, Musk deklaroi me besim gjatë një jetese ndërsa komentonte Deepseek R1, "Xai është gati të nisë një model më të mirë të AI". Nga të dhënat e paraqitura live, GROK3 raportohet se ka tejkaluar të gjitha modelet aktuale të rrjedhës kryesore në standardet për matematikë, shkencë dhe programim, me Musk madje duke pretenduar se Grok3 do të përdoret për detyra llogaritëse që lidhen me misionet Mars të SpaceX, duke parashikuar "përparime në nivelin e çmimeve Nobel brenda tre viteve". Sidoqoftë, këto aktualisht janë vetëm pohimet e Musk. Pas fillimit, unë testova versionin më të fundit beta të Grok3 dhe shtrova pyetjen klasike të mashtrimit për modele të mëdha: "Cila është më e madhe, 9.11 ose 9.9?" Për fat të keq, pa asnjë kualifikues ose shenja, i ashtuquajturi më i zgjuar Grok3 ende nuk mund t'i përgjigjej kësaj pyetjeje në mënyrë korrekte. GROK3 nuk arriti të identifikojë me saktësi kuptimin e pyetjes.
Ky test shpejt tërhoqi vëmendje të konsiderueshme nga shumë miq, dhe rastësisht, teste të ndryshme të ngjashme jashtë shtetit kanë treguar Grok3 duke luftuar me pyetje themelore të fizikës/matematikës si "Cili top bie së pari nga Kulla Leaning of Piza?" Kështu, është etiketuar me humor si "një gjeni që nuk dëshiron t'i përgjigjet pyetjeve të thjeshta".

GROK3 është i mirë, por nuk është më mirë se R1 ose O1-Pro.
GROK3 përjetoi "dështime" në shumë teste të përbashkëta të njohurive në praktikë. Gjatë ngjarjes së fillimit të XAI, Musk demonstroi duke përdorur GROK3 për të analizuar klasat e personazheve dhe efektet nga rruga e lojës së Mërgimit 2, të cilën ai pretendonte se luante shpesh, por shumica e përgjigjeve të dhëna nga Grok3 ishin të pasakta. Musk gjatë rrjedhës së drejtpërdrejtë nuk e vuri re këtë çështje të dukshme.
Ky gabim jo vetëm që siguroi prova të mëtejshme për netizenët e huaj për të tallur Musk për "gjetjen e një zëvendësuesi" në lojëra, por gjithashtu ngriti shqetësime të rëndësishme në lidhje me besueshmërinë e Grok3 në aplikimet praktike. Për një "gjeni" të tillë, pavarësisht nga aftësitë e tij aktuale, besueshmëria e tij në skenarë jashtëzakonisht të ndërlikuar të aplikimit, siç janë detyrat e eksplorimit të Marsit, mbetet në dyshim.
Aktualisht, shumë testues që morën qasje në Grok3 javë më parë, dhe ata që sapo testuan aftësitë e modelit për disa orë dje, të gjithë tregojnë për një përfundim të përbashkët: "Grok3 është i mirë, por nuk është më mirë se R1 ose O1-Pro".

Një perspektivë kritike për "prishjen e Nvidia"
Në PPT-në e paraqitur zyrtarisht gjatë lëshimit, GROK3 u tregua se ishte "shumë përpara" në arenën chatbot, por kjo teknika grafike e përdorur me zgjuarsi: boshti vertikal në tabelën e drejtuesve të listuar vetëm rezultatet në gamën e rezultateve 1400-1300, duke bërë që ndryshimi origjinal 1% në rezultatet e provës të shfaqet jashtëzakonisht e rëndësishme në këtë prezantim.

Në rezultatet aktuale të shënimit të modelit, GROK3 është vetëm 1-2% përpara Deepseek R1 dhe GPT-4.0, i cili korrespondon me përvojat e shumë përdoruesve në testet praktike që gjetën "asnjë ndryshim të dukshëm". GROK3 tejkalon vetëm pasardhësit e tij me 1%-2%.

Edhe pse Grok3 ka shënuar më lart se të gjitha modelet e testuara publikisht, shumë nuk e marrin seriozisht këtë: në fund të fundit, Xai është kritikuar më parë për "manipulim të rezultatit" në epokën e GROK2. Ndërsa drejtuesi i përgjigjes penalizoi stilin e gjatësisë së përgjigjes, rezultatet u ulën në masë të madhe, duke udhëhequr të brendshëm të industrisë për të kritikuar shpesh fenomenin e "rezultatit të lartë, por aftësi të ulët".
Qoftë përmes "manipulimit" të drejtuesit ose trukeve të projektimit në ilustrime, ata zbulojnë obsesionin e Xai dhe Musk me nocionin e "udhëheqjes së paketës" në aftësitë e modelit. Musk pagoi një çmim të pjerrët për këto marzhë: Gjatë fillimit, ai mburrej për përdorimin e 200,000 GPU -ve H100 (duke pretenduar "mbi 100,000" gjatë Livestream) dhe arritjen e një kohe totale trajnimi prej 200 milion orësh. Kjo bëri që disa të besojnë se përfaqëson një tjetër ndihmë të rëndësishme për industrinë e GPU dhe të konsiderojnë ndikimin e Deepseek në sektorin si "të marrë". Veçanërisht, disa besojnë se fuqia e plotë llogaritëse do të jetë e ardhmja e trajnimit të modelit.
Sidoqoftë, disa netizens krahasuan konsumin e 2000 GPU -ve H800 gjatë dy muajve për të prodhuar Deepseek V3, duke llogaritur se konsumi aktual i energjisë së trajnimit të Grok3 është 263 herë më shumë se V3. Hendeku midis Deepseek V3, i cili shënoi 1402 pikë, dhe GROK3 është vetëm nën 100 pikë. Pas lëshimit të këtyre të dhënave, shumë shpejt e kuptuan se pas titullit të Grok3 si "më i fortë në botë" qëndron një efekt i qartë margjinal i shërbimeve - logjika e modeleve më të mëdha që gjenerojnë performancë më të fortë ka filluar të tregojë kthime në zvogëlim.

Edhe me "rezultatin e lartë, por me aftësi të ulët", Grok2 kishte sasi të mëdha të të dhënave me cilësi të lartë të palëve të para nga platforma X (Twitter) për të mbështetur përdorimin. Sidoqoftë, në trajnimin e GROK3, Xai hasi natyrshëm në "tavanin" me të cilin përballet Openai aktualisht - mungesa e të dhënave të trajnimit premium ekspozon me shpejtësi mjetin margjinal të aftësive të modelit.
Zhvilluesit e Grok3 dhe Musk ka të ngjarë të parët që i kuptojnë dhe identifikojnë këto fakte thellësisht, kjo është arsyeja pse Musk ka përmendur vazhdimisht në mediat sociale që përdoruesit e versionit po përjetojnë tani është "ende vetëm beta" dhe se "versioni i plotë do të dalë në treg në muajt e ardhshëm". Musk ka marrë rolin e menaxherit të produkteve të Grok3, duke sugjeruar përdoruesit të japin reagime për çështje të ndryshme të hasura në pjesën e komenteve.
Megjithatë, brenda një dite, performanca e Grok3 padyshim që ngriti alarme për ata që shpresojnë të mbështeten në "muskuj masivë llogaritës" për të trajnuar modele të mëdha më të forta: bazuar në informacionin në dispozicion të Microsoft, Openai GPT-4 ka një madhësi parametri prej 1.8 trilion parametra, mbi dhjetë herë atë të GPT-3. Thashethemet sugjerojnë që madhësia e parametrit të GPT-4.5 mund të jetë edhe më e madhe.
Ndërsa madhësitë e parametrave të modelit rriten, kostot e trajnimit janë gjithashtu në rritje. Me praninë e Grok3, pretendentët si GPT-4.5 dhe të tjerët që dëshirojnë të vazhdojnë "djegien e parave" për të arritur performancën më të mirë të modelit përmes madhësisë së parametrave duhet të marrin në konsideratë tavanin që tani është qartë në pamje dhe të mendojë se si ta kapërceni atë. Në këtë moment, Ilya Sutskever, ish shkencëtarja kryesore në Openai, kishte deklaruar më parë dhjetorin e kaluar, "Para-trajnimi me të cilin jemi njohur do të marrë fund", i cili ka rishfaqur në diskutime, duke nxitur përpjekje për të gjetur rrugën e vërtetë për trajnimin e modeleve të mëdha.

Pikëpamja e Ilya ka tingëlluar alarmin në industri. Ai parashikoi me saktësi rraskapitjen e afërt të të dhënave të reja të arritshme, duke çuar në një situatë ku performanca nuk mund të vazhdojë të përmirësohet përmes marrjes së të dhënave, duke e krahasuar atë me rraskapitjen e karburanteve fosile. Ai tregoi se "si vaji, përmbajtja e gjeneruar nga njeriu në internet është një burim i kufizuar". Në parashikimet e Sutskever, gjenerata e ardhshme e modeleve, pas stërvitjes, do të zotërojë "autonomi të vërtetë" dhe aftësi arsyetimi "të ngjashme me trurin e njeriut".
Për dallim nga modelet e sotme të trajnuara të sotme që kryesisht mbështeten në përputhjen e përmbajtjes (bazuar në përmbajtjen e modelit të mësuar më parë), sistemet e ardhshme të AI do të jenë në gjendje të mësojnë dhe të krijojnë metodologji për të zgjidhur problemet në një mënyrë të ngjashme me "të menduarit" e trurit të njeriut. Një njeri mund të arrijë aftësi themelore në një temë me literaturë vetëm themelore profesionale, ndërsa një model i madh AI kërkon miliona pika të të dhënave për të arritur vetëm efikasitetin më themelor të nivelit të hyrjes. Edhe kur formulimi ndryshohet pak, këto pyetje themelore mund të mos kuptohen saktë, duke ilustruar se modeli nuk është përmirësuar vërtet në inteligjencë: pyetjet themelore por të pazgjidhshme të përmendura në fillim të artikullit paraqesin një shembull të qartë të këtij fenomeni.

Përfundim
Sidoqoftë, përtej forcës brutale, nëse GROK3 me të vërtetë arrin të zbulojë në industri se "modelet e paracaktuara po i afrohen fundit të tyre", do të mbante implikime të konsiderueshme për këtë fushë.
Ndoshta pasi tërbimi përreth GROK3 gradualisht zbritet, ne do të dëshmojmë më shumë raste si shembulli i Fei-Fei Li i "akordimit të modeleve të performancës së lartë në një bazë të dhënash specifike për vetëm 50 dollarë", duke zbuluar përfundimisht rrugën e vërtetë për në AGI.
Kabllot e kontrollit
Sistemi i strukturuar i kabllove
Rrjeti dhe të dhënat, kablloja me fibra optike, kordoni patch, modulet, pllaka e fytyrës
.16 Prill-18th, 2024 Energjia e Mesme-Lindje në Dubai
Prill.16-18th, 2024 Securika në Moskë
Maj.9, 2024 Ngjarja e Nisjes së Produkteve dhe Teknologjive të Re në Shanghai
Tetor.22-të 25, 2024 Kina e sigurisë në Pekin
Nëntor.19-20, 2024 World Connected World
Koha e Postimit: Shkurt-19-2025