DeepSeek: Ai që po revolucionarizohet, duke e bërë peizazhin e inteligjencës artificiale.

GRUPI AIPU WATON

Hyrje

Ankth i vazhdueshëm midis modeleve të mëdha konkurruese, ofruesve të cloud-it që konkurrojnë për pjesë të tregut dhe prodhuesve të çipave punëtorë - Efekti DeepSeek vazhdon.

Ndërsa Festivali i Pranverës po mbaron, entuziazmi rreth DeepSeek mbetet i fortë. Festa e fundit nxori në pah një ndjenjë të konsiderueshme konkurrence brenda industrisë së teknologjisë, me shumë njerëz që diskutojnë dhe analizojnë këtë "peshk-mustak". Silicon Valley po përjeton një ndjenjë krize të paparë: avokatët e burimit të hapur po shprehin përsëri mendimet e tyre, dhe madje OpenAI po rivlerëson nëse strategjia e saj me burim të mbyllur ishte zgjedhja më e mirë. Paradigma e re e kostove më të ulëta llogaritëse ka shkaktuar një reaksion zinxhir midis gjigantëve të çipave si Nvidia, duke çuar në humbje rekord të vlerës së tregut brenda një dite në historinë e tregut të aksioneve në SHBA, ndërsa agjencitë qeveritare po hetojnë përputhshmërinë e çipave të përdorur nga DeepSeek. Mes vlerësimeve të përziera të DeepSeek jashtë vendit, brenda vendit, ai po përjeton një rritje të jashtëzakonshme. Pas lançimit të modelit R1, aplikacioni i lidhur ka parë një rritje të trafikut, duke treguar se rritja në sektorët e aplikacioneve do ta çojë përpara ekosistemin e përgjithshëm të IA-së. Aspekti pozitiv është se DeepSeek do të zgjerojë mundësitë e aplikacioneve, duke sugjeruar se mbështetja në ChatGPT nuk do të jetë aq e kushtueshme në të ardhmen. Ky ndryshim është reflektuar në aktivitetet e fundit të OpenAI, duke përfshirë ofrimin e një modeli arsyetimi të quajtur o3-mini për përdoruesit falas në përgjigje të DeepSeek R1, si dhe përmirësimet pasuese që e bënë publik zinxhirin e mendimit të o3-mini. Shumë përdorues të huaj shprehën mirënjohje ndaj DeepSeek për këto zhvillime, megjithëse ky zinxhir mendimi shërben si një përmbledhje.

Me optimizëm, është e qartë se DeepSeek po bashkon lojtarët vendas. Me fokusin e tij në uljen e kostove të trajnimit, prodhues të ndryshëm të çipave në rrjedhën e sipërme, ofrues të ndërmjetëm të cloud-it dhe startup-e të shumta po i bashkohen në mënyrë aktive ekosistemit, duke rritur efikasitetin e kostos për përdorimin e modelit DeepSeek. Sipas dokumenteve të DeepSeek, trajnimi i plotë i modelit V3 kërkon vetëm 2.788 milion orë GPU H800, dhe procesi i trajnimit është shumë i qëndrueshëm. Arkitektura MoE (Përzierje e Ekspertëve) është thelbësore për uljen e kostove para-trajnimit me një faktor dhjetë krahasuar me Llama 3 me 405 miliardë parametra. Aktualisht, V3 është modeli i parë i njohur publikisht që demonstron një rrallësi kaq të lartë në MoE. Përveç kësaj, MLA (Vëmendje Shumështresore) funksionon në mënyrë sinergjike, veçanërisht në aspektet e arsyetimit. "Sa më i rrallë të jetë MoE, aq më e madhe është madhësia e grupit të nevojshëm gjatë arsyetimit për të shfrytëzuar plotësisht fuqinë llogaritëse, me madhësinë e KVCache si faktorin kryesor kufizues; MLA zvogëlon ndjeshëm madhësinë e KVCache", vuri në dukje një studiues nga Chuanjing Technology në një analizë për AI Technology Review. Në përgjithësi, suksesi i DeepSeek qëndron në kombinimin e teknologjive të ndryshme, jo vetëm të njërës prej tyre. Ekspertët e industrisë vlerësojnë aftësitë inxhinierike të ekipit DeepSeek, duke vënë në dukje përsosmërinë e tyre në trajnimin paralel dhe optimizimin e operatorëve, duke arritur rezultate të jashtëzakonshme duke rafinuar çdo detaj. Qasja me burim të hapur e DeepSeek nxit më tej zhvillimin e përgjithshëm të modeleve të mëdha, dhe parashikohet që nëse modele të ngjashme zgjerohen në imazhe, video dhe më shumë, kjo do të stimulojë ndjeshëm kërkesën në të gjithë industrinë.

Mundësi për Shërbime Arsyetimi nga Palët e Treta

Të dhënat tregojnë se që nga publikimi i tij, DeepSeek ka grumbulluar 22.15 milionë përdorues aktivë ditorë (DAU) brenda vetëm 21 ditëve, duke arritur 41.6% të bazës së përdoruesve të ChatGPT dhe duke tejkaluar 16.95 milionë përdorues aktivë ditorë të Doubao, duke u bërë kështu aplikacioni me rritjen më të shpejtë në nivel global, duke kryesuar Apple App Store në 157 vende/rajone. Megjithatë, ndërsa përdoruesit u dyndën në masë, hakerat kibernetikë kanë sulmuar pa pushim aplikacionin DeepSeek, duke shkaktuar një ngarkesë të konsiderueshme në serverat e tij. Analistët e industrisë besojnë se kjo është pjesërisht për shkak se DeepSeek përdor karta për trajnim, ndërkohë që i mungon fuqia e mjaftueshme llogaritëse për arsyetim. Një burim i brendshëm i industrisë informoi AI Technology Review, "Problemet e shpeshta të serverit mund të zgjidhen lehtësisht duke ngarkuar tarifa ose duke financuar për të blerë më shumë makina; në fund të fundit, varet nga vendimet e DeepSeek." Kjo paraqet një kompromis në përqendrimin në teknologji kundrejt produktivizimit. DeepSeek është mbështetur kryesisht në kuantizimin kuantik për vetëmbajtje, duke marrë pak fonde të jashtme, duke rezultuar në presion relativisht të ulët të fluksit të parave të gatshme dhe një mjedis më të pastër teknologjik. Aktualisht, në dritën e problemeve të lartpërmendura, disa përdorues po i kërkojnë DeepSeek në mediat sociale të rrisë pragjet e përdorimit ose të prezantojë veçori me pagesë për të rritur komoditetin e përdoruesit. Përveç kësaj, zhvilluesit kanë filluar të përdorin API-në zyrtare ose API-të e palëve të treta për optimizim. Megjithatë, platforma e hapur e DeepSeek njoftoi së fundmi: "Burimet aktuale të serverit janë të pakta dhe rimbushjet e shërbimit të API-t janë pezulluar".

 

Kjo padyshim hap më shumë mundësi për shitësit e palëve të treta në sektorin e infrastrukturës së inteligjencës artificiale. Kohët e fundit, gjigantë të shumtë vendas dhe ndërkombëtarë të cloud-it kanë lançuar API-të model të DeepSeek - gjigantët e huaj Microsoft dhe Amazon ishin ndër të parët që u bashkuan në fund të janarit. Lideri vendas, Huawei Cloud, bëri hapin e parë, duke lançuar shërbimet e arsyetimit DeepSeek R1 dhe V3 në bashkëpunim me Flow me bazë në Silicon më 1 shkurt. Raportet nga AI Technology Review tregojnë se shërbimet e Flow me bazë në Silicon kanë parë një fluks përdoruesish, duke "rrëzuar" në mënyrë efektive platformën. Tre kompanitë e mëdha të teknologjisë - BAT (Baidu, Alibaba, Tencent) dhe ByteDance - gjithashtu lëshuan oferta me kosto të ulët dhe me kohë të kufizuar duke filluar nga 3 shkurti, duke kujtuar luftërat e çmimeve të shitësve të cloud-it të vitit të kaluar të ndezura nga lançimi i modelit V2 të DeepSeek, ku DeepSeek filloi të quhej "kasapi i çmimeve". Veprimet frenetike të shitësve të cloud-it pasqyrojnë lidhjet e forta të mëparshme midis Microsoft Azure dhe OpenAI, ku në vitin 2019, Microsoft bëri një investim të konsiderueshëm prej 1 miliard dollarësh në OpenAI dhe korri përfitime pas lançimit të ChatGPT në vitin 2023. Megjithatë, kjo marrëdhënie e ngushtë filloi të përkeqësohej pasi Meta e bëri Llama-n me burim të hapur, duke u lejuar shitësve të tjerë jashtë ekosistemit Microsoft Azure të konkurronin me modelet e tyre të mëdha. Në këtë rast, DeepSeek jo vetëm që e ka tejkaluar ChatGPT-në për sa i përket popullaritetit të produktit, por ka prezantuar edhe modele me burim të hapur pas lançimit të o1, ngjashëm me entuziazmin që rrethon ringjalljen e GPT-3 nga Llama.

 

Në realitet, ofruesit e cloud-it po e pozicionojnë veten edhe si porta trafiku për aplikacionet e IA-së, që do të thotë se thellimi i lidhjeve me zhvilluesit përkthehet në avantazhe parandaluese. Raportet tregojnë se Baidu Smart Cloud kishte mbi 15,000 klientë që përdornin modelin DeepSeek nëpërmjet platformës Qianfan në ditën e lançimit të modelit. Përveç kësaj, disa firma më të vogla po ofrojnë zgjidhje, duke përfshirë Flow me bazë Silicon, Luchen Technology, Chuanjing Technology dhe ofrues të ndryshëm të AI Infra që kanë lançuar mbështetje për modelet DeepSeek. AI Technology Review ka mësuar se mundësitë aktuale të optimizimit për vendosjet lokale të DeepSeek ekzistojnë kryesisht në dy fusha: njëra është optimizimi për karakteristikat e rrallësisë së modelit MoE duke përdorur një qasje arsyetimi të përzier për të vendosur modelin MoE me 671 miliardë parametra në nivel lokal, duke përdorur inferencën hibride GPU/CPU. Përveç kësaj, optimizimi i MLA është jetik. Megjithatë, dy modelet e DeepSeek ende përballen me disa sfida në optimizimin e vendosjes. "Për shkak të madhësisë së modelit dhe parametrave të shumtë, optimizimi është me të vërtetë kompleks, veçanërisht për vendosjet lokale ku arritja e një ekuilibri optimal midis performancës dhe kostos do të jetë sfiduese", deklaroi një studiues nga Chuanjing Technology. Pengesa më e rëndësishme qëndron në kapërcimin e kufizimeve të kapacitetit të memories. "Ne miratojmë një qasje heterogjene bashkëpunimi për të shfrytëzuar plotësisht CPU-të dhe burimet e tjera llogaritëse, duke vendosur vetëm pjesët jo të përbashkëta të matricës së rrallë MoE në CPU/DRAM për përpunim duke përdorur operatorë CPU me performancë të lartë, ndërsa pjesët e dendura qëndrojnë në GPU", shpjegoi ai më tej. Raportet tregojnë se kuadri me burim të hapur i Chuanjing, KTransformers, injekton kryesisht strategji dhe operatorë të ndryshëm në zbatimin origjinal të Transformers përmes një shablloni, duke rritur ndjeshëm shpejtësinë e nxjerrjes së përfundimeve duke përdorur metoda si CUDAGraph. DeepSeek ka krijuar mundësi për këto startup-e, pasi përfitimet e rritjes po bëhen të dukshme; shumë firma kanë raportuar rritje të dukshme të klientëve pas lançimit të API-t DeepSeek, duke marrë pyetje nga klientë të mëparshëm që kërkojnë optimizime. Personat brenda industrisë kanë vënë në dukje: "Në të kaluarën, grupet e klientëve disi të vendosur shpesh ishin të bllokuar në shërbimet e standardizuara të kompanive më të mëdha, të lidhur ngushtë nga avantazhet e tyre të kostos për shkak të shkallës. Megjithatë, pas përfundimit të vendosjes së DeepSeek-R1/V3 para Festivalit të Pranverës, papritmas morëm kërkesa për bashkëpunim nga disa klientë të njohur, dhe madje edhe klientë që më parë ishin joaktivë filluan kontaktin për të prezantuar shërbimet tona DeepSeek." Aktualisht, duket se DeepSeek po e bën performancën e nxjerrjes së modelit gjithnjë e më kritike, dhe me një miratim më të gjerë të modeleve të mëdha, kjo do të vazhdojë të ndikojë ndjeshëm në zhvillimin në industrinë e Infrastrukturës së IA-së. Nëse një model në nivel DeepSeek mund të vendoset në nivel lokal me një kosto të ulët, kjo do të ndihmonte shumë përpjekjet e transformimit dixhital të qeverisë dhe ndërmarrjeve. Megjithatë, sfidat vazhdojnë, pasi disa klientë mund të kenë pritje të larta në lidhje me aftësitë e modeleve të mëdha, duke e bërë më të qartë se balancimi i performancës dhe kostos bëhet jetësor në vendosjen praktike. 

Për të vlerësuar nëse DeepSeek është më i mirë se ChatGPT, është thelbësore të kuptohen ndryshimet kryesore, pikat e forta dhe rastet e përdorimit të tyre. Ja një krahasim gjithëpërfshirës:

Karakteristikë/Aspekt Kërkim i thellë ChatGPT
Pronësia Zhvilluar nga një kompani kineze Zhvilluar nga OpenAI
Modeli i Burimit Burim i hapur Pronësor
Kosto Falas për t’u përdorur; mundësi më të lira për qasje në API Çmimi i abonimit ose pagesës për përdorim
Përshtatje Shumë i personalizueshëm, duke u lejuar përdoruesve ta modifikojnë dhe ndërtojnë mbi të Personalizim i kufizuar në dispozicion
Performanca në Detyra Specifike Shkëlqyeshëm në fusha të caktuara si analiza e të dhënave dhe rikthimi i informacionit I gjithanshëm me performancë të fortë në shkrimin krijues dhe detyrat bisedore
Mbështetje Gjuhësore Fokus i fortë në gjuhën dhe kulturën kineze Mbështetje e gjerë gjuhësore, por e përqendruar në SHBA
Kostoja e Trajnimit Kosto më të ulëta trajnimi, të optimizuara për efikasitet Kosto më të larta trajnimi, që kërkojnë burime të konsiderueshme llogaritëse
Variacioni i Përgjigjes Mund të ofrojë përgjigje të ndryshme, ndoshta të ndikuara nga konteksti gjeopolitik Përgjigje të qëndrueshme bazuar në të dhënat e trajnimit
Audienca e synuar I drejtuar zhvilluesve dhe studiuesve që dëshirojnë fleksibilitet I destinuar për përdoruesit e përgjithshëm që kërkojnë aftësi bisedore
Rastet e përdorimit Më efikas për gjenerimin e kodit dhe detyrat e shpejta Ideale për gjenerimin e tekstit, përgjigjen e pyetjeve dhe angazhimin në dialog

Një perspektivë kritike mbi "Shkatërrimin e Nvidia-së"

Aktualisht, përveç Huawei, disa prodhues vendas të çipave si Moore Threads, Muxi, Biran Technology dhe Tianxu Zhixin po përshtaten gjithashtu me dy modelet e DeepSeek. Një prodhues çipash i tha AI Technology Review: "Struktura e DeepSeek demonstron inovacion, megjithatë mbetet një LLM. Përshtatja jonë me DeepSeek është përqendruar kryesisht në aplikacionet e arsyetimit, duke e bërë zbatimin teknik mjaft të thjeshtë dhe të shpejtë." Megjithatë, qasja e Ministrisë së Mjedisit kërkon kërkesa më të larta në aspektin e ruajtjes dhe shpërndarjes, së bashku me sigurimin e përputhshmërisë gjatë vendosjes me çipa vendas, duke paraqitur sfida të shumta inxhinierike që kanë nevojë për zgjidhje gjatë përshtatjes. "Aktualisht, fuqia llogaritëse vendase nuk përputhet me Nvidia në përdorshmëri dhe stabilitet, duke kërkuar pjesëmarrjen origjinale të fabrikës për konfigurimin e mjedisit të softuerit, zgjidhjen e problemeve dhe optimizimin themelor të performancës", tha një praktikues i industrisë bazuar në përvojën praktike. Njëkohësisht, "Për shkak të shkallës së madhe të parametrave të DeepSeek R1, fuqia llogaritëse vendase kërkon më shumë nyje për paralelizim. Përveç kësaj, specifikimet e harduerit vendas janë ende disi prapa; për shembull, Huawei 910B aktualisht nuk mund të mbështesë përfundimin FP8 të prezantuar nga DeepSeek." Një nga pikat kryesore të modelit DeepSeek V3 është prezantimi i një kuadri trajnimi me precizion të përzier FP8, i cili është validuar në mënyrë efektive në një model jashtëzakonisht të madh, duke shënuar një arritje të rëndësishme. Më parë, lojtarë të mëdhenj si Microsoft dhe Nvidia sugjeruan punë të ngjashme, por dyshimet mbeten brenda industrisë në lidhje me fizibilitetin. Kuptohet që krahasuar me INT8, avantazhi kryesor i FP8 është se kuantizimi pas trajnimit mund të arrijë precizion pothuajse pa humbje, duke rritur ndjeshëm shpejtësinë e nxjerrjes së përfundimeve. Kur krahasohet me FP16, FP8 mund të realizojë deri në dy herë përshpejtim në H20 të Nvidia dhe mbi 1.5 herë përshpejtim në H100. Veçanërisht, ndërsa diskutimet rreth trendit të fuqisë llogaritëse vendase plus modelet vendase fitojnë vrull, spekulimet nëse Nvidia mund të ndërpritet dhe nëse hendeku CUDA mund të anashkalohet, po bëhen gjithnjë e më të përhapura. Një fakt i pamohueshëm është se DeepSeek me të vërtetë ka shkaktuar një rënie të konsiderueshme të vlerës së tregut të Nvidia, por ky ndryshim ngre pyetje në lidhje me integritetin e fuqisë llogaritëse të nivelit të lartë të Nvidia. Narrativat e pranuara më parë në lidhje me akumulimin llogaritës të drejtuar nga kapitali po sfidohen, megjithatë mbetet e vështirë për Nvidia-n të zëvendësohet plotësisht në skenarët e trajnimit. Analiza e përdorimit të thellë të CUDA-s nga DeepSeek tregon se fleksibiliteti - siç është përdorimi i SM për komunikim ose manipulimi i drejtpërdrejtë i kartave të rrjetit - nuk është i realizueshëm për GPU-të e rregullta për t'u akomoduar. Pikëpamjet e industrisë theksojnë se hendeku i Nvidia-s përfshin të gjithë ekosistemin CUDA dhe jo vetëm vetë CUDA-n, dhe udhëzimet PTX (Ekzekutimi Paralel i Thread-eve) që përdor DeepSeek janë ende pjesë e ekosistemit CUDA. "Në afat të shkurtër, fuqia llogaritëse e Nvidia-s nuk mund të anashkalohet - kjo është veçanërisht e qartë në trajnim; megjithatë, vendosja e kartave vendase për arsyetim do të jetë relativisht më e lehtë, kështu që progresi ka të ngjarë të jetë më i shpejtë. Përshtatja e kartave vendase përqendrohet kryesisht në nxjerrjen e përfundimeve; askush nuk ka arritur ende të trajnojë një model të performancës së DeepSeek në kartat vendase në shkallë të gjerë", vërejti një analist i industrisë për AI Technology Review. Në përgjithësi, nga pikëpamja e nxjerrjes së përfundimeve, rrethanat janë inkurajuese për çipat vendas të modelit të madh. Mundësitë për prodhuesit vendas të çipave brenda fushës së inferencës janë më të dukshme për shkak të kërkesave tepër të larta të trajnimit, të cilat pengojnë hyrjen. Analistët pohojnë se mjafton thjesht shfrytëzimi i kartave vendase të inferencës; nëse është e nevojshme, blerja e një makine shtesë është e realizueshme, ndërsa modelet e trajnimit paraqesin sfida unike - menaxhimi i një numri në rritje të makinave mund të bëhet i rëndë dhe shkallët më të larta të gabimeve mund të ndikojnë negativisht në rezultatet e trajnimit. Trajnimi gjithashtu ka kërkesa specifike në shkallë të klasterit, ndërsa kërkesat për klasteret për inferencë nuk janë aq të rrepta, duke lehtësuar kështu kërkesat e GPU-së. Aktualisht, performanca e kartës së vetme H20 të Nvidia nuk e tejkalon atë të Huawei ose Cambrian; forca e saj qëndron në grupim. Bazuar në ndikimin e përgjithshëm në tregun e fuqisë llogaritëse, themeluesi i Luchen Technology, You Yang, vuri në dukje në një intervistë me AI Technology Review, "DeepSeek mund të dëmtojë përkohësisht krijimin dhe marrjen me qira të klastereve ultra të mëdha llogaritëse të trajnimit. Në planin afatgjatë, duke ulur ndjeshëm kostot e lidhura me trajnimin, arsyetimin dhe aplikimet e modeleve të mëdha, kërkesa e tregut ka të ngjarë të rritet. Përsëritjet pasuese të IA bazuar në këtë do të nxisin vazhdimisht kërkesë të qëndrueshme në tregun e fuqisë llogaritëse." Për më tepër, "kërkesa e shtuar e DeepSeek për shërbime arsyetimi dhe rregullimi të imët është më e përputhshme me peizazhin kompjuterik vendas, ku kapacitetet lokale janë relativisht të dobëta, duke ndihmuar në zbutjen e humbjeve nga burimet e papërdorura pas krijimit të grupimeve; kjo krijon mundësi të qëndrueshme për prodhuesit në nivele të ndryshme të ekosistemit kompjuterik vendas". Luchen Technology ka bashkëpunuar me Huawei Cloud për të lançuar API-të e arsyetimit të serisë DeepSeek R1 dhe shërbimet e imazhit në cloud bazuar në fuqinë kompjuterike vendase. You Yang shprehu optimizëm për të ardhmen: "DeepSeek ngjall besim në zgjidhjet e prodhuara vendase, duke inkurajuar entuziazëm dhe investime më të mëdha në aftësitë kompjuterike vendase në të ardhmen".

微信图片_20240614024031.jpg1

Përfundim

Nëse DeepSeek është "më i mirë" se ChatGPT varet nga nevojat dhe objektivat specifike të përdoruesit. Për detyrat që kërkojnë fleksibilitet, kosto të ulët dhe personalizim, DeepSeek mund të jetë superior. Për shkrimin krijues, pyetjet e përgjithshme dhe ndërfaqet e bisedës miqësore për përdoruesit, ChatGPT mund të marrë drejtimin. Çdo mjet shërben për qëllime të ndryshme, kështu që zgjedhja do të varet shumë nga konteksti në të cilin përdoren.

Gjeni Zgjidhje për Kabllo ELV

Kabllot e Kontrollit

Për BMS, BUS, Industriale, Kabllo Instrumentimi.

Sistemi i Kabllimit të Strukturuar

Rrjet dhe të dhëna, kabllo me fibra optike, kordon patch, module, pllakë mbrojtëse

Rishikimi i Ekspozitave dhe Eventeve të vitit 2024

16-18 Prill 2024 Energjia e Lindjes së Mesme në Dubai

16-18 Prill 2024 Securika në Moskë

9 Maj 2024, NGJARJA E LANÇIMIT TË PRODUKTEVE DHE TEKNOLOGJIVE TË REJA në Shangai

22-25 tetor 2024 SECURITY CHINA në Pekin

19-20 nëntor 2024 CONNECTED WORLD KSA


Koha e postimit: 10 shkurt 2025