Chiński startup DeepSeek wprowadza nowy, eksperymentalny model AI
DeepSeek zbudował nowy eksperymentalny model AI, który tym razem stawia nie na moc, a na efektywność. Model V3.2 ma być o połowę tańszy w utrzymaniu. Do tego Chińczycy podzielili się ze światem swoim kodem i narzędziami do tworzenia agentów AI.
DeepSeek-V3.2-Exp ujrzał światło dzienne w poniedziałek. To rozszerzenie poprzedniego modelu (V3.1-Terminus). – Model ten kontynuuje nasz nacisk na efektywność, redukcję kosztów i dzielenie się oprogramowaniem OpenSource – tłumaczy portalowi CNBC Adina Yakefu z firmy HuggingFace, która jest jednym z liderów chińskiego rynku AI. – Dużym usprawnieniem jest funkcja modelu uwagi rzadkiej, która sprawia, że AI lepiej radzi sobie z długimi dokumentami czy konwersacjami. Ścina ona także koszty utrzymania AI o połowę – dodaje. Chodzi o rodzaj mechanizmu uwagi w sieciach neuronowych, stosowany w modelach typu transformer, w którym zamiast analizować wszystkie możliwe połączenia między elementami sekwencji, model koncentruje się tylko na wybranych, istotnych połączeniach.
Eksperci sceptycznie podchodzą do nowego modelu
Jednocześnie jednak eksperci wskazują na problemy takiego podejścia. – Powstaje pytanie, czy taki model ma dobry mechanizm, by wykluczyć bezużyteczne informacje podczas wyszukiwania, czy też mechanizm wyklucza też ważne dane, a wtedy efekt końcowy będzie bezużyteczny – tłumaczy Ekaterina Almasque, współtwórca nowego funduszu venture Blank Page Capital. Dodaje, że to może być problem także dla bezpieczeństwa systemów opartych na AI. A to, że jest tańszy, nie znaczy, że jest optymalny do użytku, w porównaniu do tradycyjnych modeli.
Twórcy DeepSeek zapewniają jednak, że model jest całkowicie bezpieczny. Do tego działa od razu na chińskich chipach AI, jak Ascend i Cambricon. To zaś ścina koszty wdrożenia w porównaniu do konkurencyjnych rozwiązań. Podzielili się też kodem swojego oprogramowania i narzędziami, potrzebnymi do jego wdrożenia.
Almasque ostrzega jednak, że to nie wystarczy. Jej zdaniem, DeepSeek nie jest w stanie opatentować swojego kodu. I by utrzymać konkurencyjność, musi zdecydować, jakie jeszcze informacje o modelu AI podać publicznie, a które zatrzymać dla siebie.
Yakefu jest jednak innego zdania. Uważa, że ludzie nie będą zwracać uwagi na problemy z jakością odpowiedzi AI, a wybiorą to, co jest tanie i efektywne. Dlatego wierzy, że model DeepSeek stanie się bardzo popularny.