DeepSeek: ai shkatërrues që revolucionarizon peizazhin e AI

Grupi AIPU Waton

Prezantim

Ankthi i vazhdueshëm midis modeleve të mëdha konkurruese, ofruesit e cloud që garojnë për pjesën e tregut, dhe prodhuesit punëtorë të çipave - efekti Deepseek vazhdon.

Ndërsa Festivali i Pranverës afrohet, eksitimi që rrethon Deepseek mbetet i fortë. Festa e fundit nxori në pah një sens të konsiderueshëm të konkurrencës brenda industrisë së teknologjisë, me shumë diskutime dhe analiza të kësaj "mustak". Silicon Valley po përjeton një ndjenjë të paparë të krizës: Avokatët e burimit të hapur po shprehin përsëri mendimet e tyre, dhe madje edhe Openai po rivlerëson nëse strategjia e saj me burim të mbyllur ishte zgjidhja më e mirë. Paradigma e re e kostove më të ulëta të llogaritjes ka shkaktuar një reagim zinxhir midis gjigandëve të çipave si NVIDIA, duke çuar në regjistrimin e humbjeve të vlerës së tregut një-ditor në historinë e tregut të aksioneve në SHBA, ndërsa agjensitë qeveritare po hetojnë pajtueshmërinë e patate të skuqura të përdorura nga Deepseek. Mes rishikimeve të përziera të Deepseek jashtë shtetit, brenda vendit, po përjeton një rritje të jashtëzakonshme. Pas fillimit të modelit R1, aplikacioni i shoqëruar ka parë një rritje të trafikut, duke treguar që rritja në sektorët e aplikimit do të çojë përpara ekosistemin e përgjithshëm të AI. Aspekti pozitiv është se Deepseek do të zgjerojë mundësitë e aplikimit, duke sugjeruar që mbështetja në Chatgpt nuk do të jetë aq e shtrenjtë në të ardhmen. Kjo ndërrim është reflektuar në aktivitetet e fundit të Openai, duke përfshirë sigurimin e një modeli arsyetimi të quajtur O3-MINI për përdoruesit e lirë në përgjigje të Deepseek R1, si dhe azhurnimet pasuese që e bënë zinxhirin e menduar të publikut O3-Mini. Shumë përdorues të huaj i shprehën mirënjohje Deepseek për këto zhvillime, megjithëse kjo zinxhir mendimi shërben si një përmbledhje.

Në mënyrë optimiste, është e qartë se Deepseek po bashkon lojtarët vendas. Me përqendrimin e tij në uljen e kostove të trajnimit, prodhues të ndryshëm të çipave në rrjedhën e sipërme, ofruesit e ndërmjetëm të cloud dhe startup të shumta po bashkohen në mënyrë aktive në ekosistemin, duke rritur efikasitetin e kostos për përdorimin e modelit Deepseek. Sipas letrave të Deepseek, trajnimi i plotë i modelit V3 kërkon vetëm 2.788 milion orë GPU H800, dhe procesi i trajnimit është shumë i qëndrueshëm. Arkitektura MOE (Përzierja e ekspertëve) është thelbësore për uljen e kostove të para-trajnimit me një faktor dhjetë në krahasim me Llama 3 me 405 miliardë parametra. Aktualisht, V3 është modeli i parë i njohur publikisht që demonstron një rrallë kaq të lartë në MOE. Për më tepër, MLA (Vëmendje me shumë shtresa) funksionon në mënyrë sinergjike, veçanërisht në aspektet e arsyetimit. "Sa më e vogël të jetë MOE, aq më e madhe është madhësia e grupit të nevojshme gjatë arsyetimit për të përdorur plotësisht fuqinë llogaritëse, me madhësinë e KVCache është faktori kryesor kufizues; MLA zvogëlon ndjeshëm madhësinë e KVCache", vuri në dukje një studiues nga teknologjia Chuanjing në një analizë për rishikimin e teknologjisë AI. Në përgjithësi, suksesi i Deepseek qëndron në kombinimin e teknologjive të ndryshme, jo vetëm një të vetme. Insajderët e industrisë lavdërojnë aftësitë inxhinierike të ekipit Deepseek, duke përmendur përsosmërinë e tyre në trajnime paralele dhe optimizimin e operatorëve, duke arritur rezultate themelore duke rafinuar çdo detaj. Qasja me burim të hapur të Deepseek lëndon më tej zhvillimin e përgjithshëm të modeleve të mëdha, dhe parashikohet që nëse modele të ngjashme zgjerohen në imazhe, video, dhe më shumë, kjo do të stimulojë ndjeshëm kërkesën në të gjithë industrinë.

Mundësitë për shërbimet e arsyetimit të palëve të treta

Të dhënat tregojnë se që nga lëshimi i tij, Deepseek ka grumbulluar 22.15 milion përdorues aktivë të përditshëm (DAU) brenda vetëm 21 ditësh, duke arritur 41.6% të bazës së përdoruesve të Chatgpt dhe duke tejkaluar 16.95 milion përdorues të përditshëm aktiv të Doubao, duke u bërë kështu aplikacioni me rritje më të shpejtë globalisht, duke kryesuar dyqanin Apple App Apple në 157 vende/rajone. Sidoqoftë, ndërsa përdoruesit u mblodhën në lëvizje, hakerat në internet kanë sulmuar pamëshirshëm aplikacionin Deepseek, duke shkaktuar tendosje të konsiderueshme në serverët e tij. Analistët e industrisë besojnë se kjo është pjesërisht për shkak të Deepseek vendosjen e kartave për trajnime ndërsa nuk ka fuqi të mjaftueshme llogaritëse për arsyetim. Një i brendshëm i industrisë së informuar rishikimin e teknologjisë së AI, "çështjet e shpeshta të serverit mund të zgjidhen lehtësisht duke ngarkuar tarifat ose financimin për të blerë më shumë makina; në fund të fundit, kjo varet nga vendimet e Deepseek." Kjo paraqet një tregti në përqëndrimin në teknologji kundrejt prodhimit. Deepseek është mbështetur kryesisht në kuantizimin kuantik për vetë-mbajtjen, pasi ka marrë pak fonde të jashtme, duke rezultuar në presion relativisht të ulët të rrjedhës së parave dhe një mjedis më të pastër teknologjik. Aktualisht, në dritën e problemeve të lartpërmendura, disa përdorues po kërkojnë Deepseek në mediat sociale të lartësojnë pragjet e përdorimit ose të prezantojnë veçori të paguara për të përmirësuar rehatinë e përdoruesit. Për më tepër, zhvilluesit kanë filluar të përdorin API zyrtare ose API të palëve të treta për optimizim. Sidoqoftë, platforma e hapur e Deepseek njoftoi kohët e fundit, "Burimet aktuale të serverit janë të pakta, dhe rimbushjet e shërbimit API janë pezulluar."

 

Kjo padyshim hap më shumë mundësi për shitësit e palëve të treta në sektorin e infrastrukturës AI. Kohët e fundit, gjigantë të shumtë vendas dhe ndërkombëtarë të cloud kanë filluar API -të e modelit të Deepseek - Overseas Giants Microsoft dhe Amazon ishin ndër të parët që u bashkuan në fund të janarit. Udhëheqësi i brendshëm, Huawei Cloud, bëri lëvizjen e parë, duke lëshuar shërbime të arsyetimit Deepseek R1 dhe V3 në bashkëpunim me rrjedhën e bazuar në silikon në 1 shkurt. Raportet nga AI Technology Review tregojnë se shërbimet e Flow Silicon me bazë Silicon kanë parë një fluks të përdoruesve, në mënyrë efektive "duke rrëzuar" platformën. Kompanitë e Big Tre Teknike-BAT (Baidu, Alibaba, Tencent) dhe Bytedance-gjithashtu lëshuan oferta me kosto të ulët, me kohë të kufizuar duke filluar nga 3 shkurt, duke kujtuar shitësin e cloud të vitit të kaluar Price Wars të ndezur nga fillimi i modelit V2 Deepseek, ku Deepseek filloi të quhet "Butcher Price." Veprimet e furishme të shitësve të cloud i bëjnë jehonë lidhjeve të mëparshme të forta midis Microsoft Azure dhe Openai, ku në vitin 2019, Microsoft bëri një investim të konsiderueshëm prej 1 miliardë dollarësh në Openai dhe përfitoi përfitime pas fillimit të Chatgpt në vitin 2023. Megjithatë, kjo marrëdhënie e ngushtë filloi të copëtohej pas meta të hapura me llamba, duke lejuar shitësit e tjerë jashtë ekosistemit të Microsoft Azure në komptesim me kompete me të mëdha me modelet e mëdha. Në këtë rast, DeepSeek jo vetëm që ka tejkaluar ChatGPT për sa i përket nxehtësisë së produktit, por ka prezantuar edhe modele me burim të hapur pas lëshimit të O1, të ngjashme me eksitimin rreth ringjalljes së Llamës të Llamës të GPT-3.

 

Në realitet, ofruesit e cloud po pozicionohen gjithashtu si porta të trafikut për aplikimet e AI, që do të thotë se thellimi i lidhjeve me zhvilluesit përkthehet në avantazhe paragjykuese. Raportet tregojnë se Baidu Smart Cloud kishte mbi 15,000 klientë duke përdorur modelin Deepseek përmes platformës Qianfan në ditën e fillimit të modelit. Për më tepër, disa firma më të vogla po ofrojnë zgjidhje, duke përfshirë rrjedhën e bazuar në silikon, Luchen Technology, Chuanjing Technology dhe ofruesit e ndryshëm të infra të AI që kanë filluar mbështetje për modelet Deepseek. Rishikimi i Teknologjisë AI ka mësuar se mundësitë e tanishme të optimizmit për vendosjet e lokalizuara të DeepSeek ekzistojnë kryesisht në dy fusha: një është optimizimi për karakteristikat e sparsity të modelit MOE duke përdorur një qasje të arsyeshme të arsyetimit për të vendosur modelin e parametrave 671 miliardë MOE në vend, ndërsa përdor konferencën hibride GPU/CPU. Për më tepër, optimizimi i MLA është thelbësor. Sidoqoftë, dy modelet e Deepseek ende përballen me disa sfida në optimizimin e vendosjes. "Për shkak të madhësisë së modelit dhe parametrave të shumtë, optimizimi është me të vërtetë kompleks, veçanërisht për vendosjet lokale ku arritja e një ekuilibri optimal midis performancës dhe kostos do të jetë sfiduese," deklaroi një studiues nga Chuanjing Technology. Pengesa më domethënëse qëndron në tejkalimin e kufijve të kapacitetit të kujtesës. "Ne adoptojmë një qasje heterogjene bashkëpunimi për të përdorur plotësisht CPU-të dhe burimet e tjera llogaritëse, duke vendosur vetëm pjesët jo të ndërlikuara të matricës së rrallë të MOE në CPU/DRAM për përpunim duke përdorur operatorë të CPU me performancë të lartë, ndërsa pjesët e dendura qëndrojnë në GPU," shpjegoi më tej. Raportet tregojnë se korniza e burimit të hapur të Chuanjing KTransformuesit kryesisht injekton strategji dhe operatorë të ndryshëm në zbatimin origjinal të transformatorëve përmes një shablloni, duke rritur ndjeshëm shpejtësinë e konkluzionit duke përdorur metoda si cudagrafi. DeepSeek ka krijuar mundësi për këto startup, pasi përfitimet e rritjes po bëhen të dukshme; Shumë firma kanë raportuar rritje të dukshme të klientit pas fillimit të API Deepseek, duke marrë pyetje nga klientët e mëparshëm që kërkojnë optimizime. Insajderët e industrisë kanë vërejtur, "Në të kaluarën, grupet e klientëve disi të vendosur shpesh ishin mbyllur në shërbimet e standardizuara të kompanive më të mëdha, të lidhura fort nga avantazhet e tyre të kostos për shkak të shkallës. Megjithatë, pas përfundimit të vendosjes së Deepseek-R1/V3 para Festivalit të Pranverës, ne papritmas morëm kërkesa për bashkëpunim nga disa klientë të njohur, dhe madje edhe më parë klientë të tronditur të filluar me të për të prezantuar shërbimet tona të thella." Aktualisht, duket se Deepseek po bën modelin e performancës së konkluzionit gjithnjë e më kritik, dhe me adoptim më të gjerë të modeleve të mëdha, kjo do të vazhdojë të ndikojë ndjeshëm në zhvillimin e industrisë së infra AI. Nëse një model i nivelit të thellë mund të vendoset në vend me një kosto të ulët, do të ndihmonte shumë përpjekjet e qeverisë dhe ndërmarrjeve të transformimit dixhital. Sidoqoftë, sfidat vazhdojnë, pasi disa klientë mund të mbajnë pritshmëri të mëdha në lidhje me aftësitë e mëdha të modelit, duke e bërë më të qartë se balancimi i performancës dhe kostoja bëhet thelbësore në vendosjen praktike. 

Për të vlerësuar nëse Deepseek është më i mirë se chatgpt, është thelbësore të kuptojnë ndryshimet, pikat e forta dhe të përdorimit të tyre. Këtu është një krahasim gjithëpërfshirës:

Tipar/aspekt Thellësi Chatgpt
Pronësi Zhvilluar nga një kompani kineze Zhvilluar nga Openai
Model burimi Me burim të hapur I pronarit
Kosto I lirë për t’u përdorur; Opsione më të lira të hyrjes në API Abonimi ose çmimi i pagës për përdorim
Personalizim Shumë e personalizueshme, duke lejuar përdoruesit të shkulin dhe të ndërtojnë mbi të Personalizim i kufizuar në dispozicion
Performanca në detyra specifike Shkëlqen në fusha të caktuara si analitika e të dhënave dhe marrja e informacionit I gjithanshëm me performancë të fortë në shkrimet krijuese dhe detyrat bisedore
Mbështetje gjuhësore Përqendrim i fortë në gjuhën dhe kulturën kineze Mbështetje e gjerë gjuhësore por në qendër të SHBA
Kosto trajnimi Kostot më të ulëta të trajnimit, të optimizuara për efikasitet Kostot më të larta të trajnimit, që kërkojnë burime të konsiderueshme llogaritëse
Variacion i përgjigjes Mund të ofrojë përgjigje të ndryshme, ndoshta të ndikuara nga konteksti gjeopolitik Përgjigje të qëndrueshme bazuar në të dhënat e trajnimit
Audiencë e synuar Që synojnë zhvilluesit dhe studiuesit që duan fleksibilitet Me qëllim përdoruesit e përgjithshëm që kërkojnë aftësi bisedore
Përdorni raste Më efikase për gjenerimin e kodit dhe detyrat e shpejta Ideale për gjenerimin e tekstit, përgjigjen e pyetjeve dhe angazhimin në dialog

Një perspektivë kritike për "prishjen e Nvidia"

Aktualisht, përveç Huawei, disa prodhues të brendshëm të çipave si Moore Threads, Muxi, Biran Technology dhe Tianxu Zhixin po përshtaten gjithashtu me dy modelet e Deepseek. Një prodhues i çipave i tha AI Technology Review, "Struktura e Deepseek demonstron risi, megjithatë ajo mbetet një LLM. Përshtatja jonë me Deepseek është përqendruar kryesisht në arsyetimin e aplikacioneve, duke e bërë zbatimin teknik mjaft të drejtpërdrejtë dhe të shpejtë." Sidoqoftë, qasja MOE kërkon kërkesa më të larta për sa i përket ruajtjes dhe shpërndarjes, shoqëruar me sigurimin e pajtueshmërisë kur vendoset me patate të skuqura shtëpiake, duke paraqitur sfida të shumta inxhinierike që kanë nevojë për zgjidhje gjatë adaptimit. "Aktualisht, fuqia llogaritëse e brendshme nuk përputhet me NVIDIA në përdorueshmërinë dhe stabilitetin, duke kërkuar pjesëmarrje origjinale në fabrikë për krijimin e mjedisit të softuerit, zgjidhjen e problemeve dhe optimizimin e performancës themelore," tha një praktikues i industrisë bazuar në përvojën praktike. Njëkohësisht, "për shkak të shkallës së madhe të parametrave të Deepseek R1, fuqia llogaritëse e brendshme kërkon më shumë nyje për paralelizim. Për më tepër, specifikimet e pajisjeve shtëpiake janë akoma disi prapa; për shembull, Huawei 910b aktualisht nuk mund të mbështesë konkluzionin FP8 të prezantuar nga Deepseek." Një nga pikat kryesore të modelit Deepseek V3 është prezantimi i një kornize trajnimi me precizion të përzier FP8, i cili është vërtetuar në mënyrë efektive në një model jashtëzakonisht të madh, duke shënuar një arritje të rëndësishme. Më parë, lojtarët kryesorë si Microsoft dhe Nvidia sugjeruan punë të lidhura, por dyshimet zgjaten brenda industrisë në lidhje me fizibilitetin. Kuptohet që në krahasim me INT8, avantazhi kryesor i FP8 është se kuantizimi pas trajnimit mund të arrijë saktësi gati pa humbje, ndërsa rrit ndjeshëm shpejtësinë e konkluzionit. Kur krahasohet me FP16, FP8 mund të realizojë deri në dy herë përshpejtim në H20 të NVIDIA dhe mbi 1.5 herë përshpejtim në H100. Veçanërisht, pasi diskutimet në lidhje me trendin e fuqisë llogaritëse të brendshme plus modelet e brendshme fitojnë vrull, spekulimet nëse NVIDIA mund të prishet, dhe nëse CUDA Moat mund të anashkalohet, po bëhet gjithnjë e më e përhapur. Një fakt i pamohueshëm është se Deepseek me të vërtetë ka shkaktuar një rënie të konsiderueshme të vlerës së tregut të Nvidia, por kjo ndërrim ngre pyetje në lidhje me integritetin e energjisë llogaritëse të nivelit të lartë të NVIDIA-s. Narrativat e pranuara më parë në lidhje me akumulimin llogaritës të drejtuar nga kapitali janë duke u sfiduar, megjithatë mbetet e vështirë për NVIDIA të zëvendësohet plotësisht në skenarët e trajnimit. Analiza e përdorimit të thellë të CUDA -s të Deepseek tregon se fleksibiliteti - siç është përdorimi i SM për komunikim ose manipulimi i drejtpërdrejtë i kartave të rrjetit - nuk është e realizueshme për GPU -të e rregullta për t'u akomoduar. Pikëpamjet e industrisë theksojnë se MOAT -i i NVIDIA përfshin të gjithë ekosistemin CUDA sesa thjesht vetë CUDA, dhe udhëzimet PTX (ekzekutimi paralel i fijes) që DEEPSEEK përdorin janë akoma pjesë e ekosistemit CUDA. "Në afat të shkurtër, fuqia llogaritëse e NVIDIA nuk mund të anashkalohet - kjo është veçanërisht e qartë në trajnim; megjithatë, vendosja e kartave shtëpiake për arsyetim do të jetë relativisht më i lehtë, kështu që përparimi ka të ngjarë të jetë më i shpejtë. Përshtatja e kartave shtëpiake të përqendrohet kryesisht në konkluzione; askush nuk ka arritur të trajnojë një model të performancës së Deepseek në kartat shtëpiake në shkallë", një analisti i industrisë së vërejtur me teknologjinë e tij të teknologjisë. Në përgjithësi, nga pikëpamja e konkluzionit, rrethanat janë inkurajuese për çipat e modeleve të mëdha shtëpiake. Mundësitë për prodhuesit e brendshëm të çipave brenda sferës së konkluzionit janë më të dukshme për shkak të kërkesave tepër të larta të trajnimit, të cilat pengojnë hyrjen. Analistët pretendojnë se thjesht shfrytëzimi i kartave të konkluzionit të brendshëm mjafton; Nëse është e nevojshme, marrja e një makine shtesë është e mundshme, ndërsa modelet e trajnimit paraqesin sfida unike - menaxhimi i një numri të shtuar të makinave mund të bëhet i rëndë, dhe nivelet më të larta të gabimit mund të ndikojnë negativisht në rezultatet e trajnimit. Trajnimi gjithashtu ka kërkesa specifike të shkallës së grupimeve, ndërsa kërkesat në grupe për konkluzion nuk janë aq të rrepta, duke lehtësuar kështu kërkesat e GPU. Aktualisht, performanca e kartës së vetme H20 të NVIDIA nuk e tejkalon atë të Huawei ose Cambrian; Forca e saj qëndron në grupim. Bazuar në ndikimin e përgjithshëm në tregun e energjisë kompjuterike, themeluesi i Luchen Technology, ju Yang, vuri në dukje në një intervistë me AI Technology Review, "Deepseek mund të minojë përkohësisht themelimin dhe marrjen me qira të trajnimeve ultra të mëdha për grupe llogaritëse. kërkesë e qëndrueshme në tregun e energjisë llogaritëse ". Për më tepër, "kërkesa e ngritur e Deepseek për arsyetim dhe shërbime të rregullimit të mirë është më e pajtueshme me peizazhin e brendshëm llogaritës, ku kapacitetet lokale janë relativisht të dobëta, duke ndihmuar në zbutjen e mbeturinave nga institucioni i burimeve boshe pas grupeve; kjo krijon mundësi të zbatueshme për prodhuesit në nivele të ndryshme të ekosistemit kompjuterik të brendshëm." Luchen Technology ka bashkëpunuar me Huawei Cloud për të filluar API -të e Arsyetimit të Serisë Deepseek R1 dhe Shërbimet e Imazheve Cloud bazuar në fuqinë llogaritëse të brendshme. Ju Yang shprehu optimizëm për të ardhmen: "Deepseek fut besim në zgjidhjet e prodhuara në vend, duke inkurajuar një entuziazëm më të madh dhe investime në aftësitë llogaritëse të brendshme që shkojnë përpara".

微信图片 _20240614024031.jpg1

Përfundim

Nëse DeepSeek është "më i mirë" sesa chatgpt varet nga nevojat dhe objektivat specifike të përdoruesit. Për detyrat që kanë nevojë për fleksibilitet, kosto të ulët dhe personalizim, Deepseek mund të jetë superior. Për shkrime krijuese, hetim të përgjithshëm dhe ndërfaqe bisedore miqësore për përdoruesit, Chatgpt mund të marrë drejtimin. Do mjet shërben për qëllime të ndryshme, kështu që zgjedhja do të varet shumë nga konteksti në të cilin ato përdoren.

Gjeni zgjidhjen e kabllit ELV

Kabllot e kontrollit

Për BMS, autobus, industriale, kabllo instrumentesh.

Sistemi i strukturuar i kabllove

Rrjeti dhe të dhënat, kablloja me fibra optike, kordoni patch, modulet, pllaka e fytyrës

2024 Rishikimi i Ekspozitave dhe Ngjarjeve

.16 Prill-18th, 2024 Energjia e Mesme-Lindje në Dubai

Prill.16-18th, 2024 Securika në Moskë

Maj.9, 2024 Ngjarja e Nisjes së Produkteve dhe Teknologjive të Re në Shanghai

Tetor.22-të 25, 2024 Kina e sigurisë në Pekin

Nëntor.19-20, 2024 World Connected World


Koha e Postimit: Shkurt-10-2025