Čínská společnost DeepSeek spolupracuje s prestižní univerzitou Čching-chua v Pekingu na snižování potřeby trénování svých modelů umělé inteligence (AI). Chce si tak snížit provozní náklady. Čínský start-up rozvířil trhy svým nízkonákladovým modelem AI, který se objevil na začátku roku.
Firma se rozhodla ke spolupráci s výzkumníky z pekingské univerzity a v odborném článku popisuje nový přístup k posilování učení, jehož cílem je zvýšit efektivitu modelů. Tedy aby byly schopny se učit stejně dobře nebo lépe, ale rychleji a s využitím méně dat a výpočetního výkonu.
Cílem nové metody je pomoci modelů AI lépe dodržovat lidské preference nabídkou odměn za přesnější a srozumitelnější odpovědi. Toto posilované učení se ukázalo být efektivní při zrychlování úloh AI v úzce zaměřených aplikacích a sférách. Rozšíření na obecnější aplikace se však ukázalo náročné, a to je problém, který se tým DeepSeek snaží vyřešit něčím, co nazývá ladění pomocí sebekritického principu. To je metoda, při které model sám kriticky hodnotí své výstupy podle vlastních principů. Tato strategie podle článku překonala stávající metody a dosáhla lepších výsledků.
DeepSeek tyto nové modely nazývá DeepSeek-GRM (generalist reward modeling), tedy obecné modelování odměn. Modely plánuje zveřejnit na bázi open source, což znamená, že budou dostupné zdarma pro všechny a vývojáři si je budou moci upravit a přizpůsobit pro svoji potřebu. Termín zatím neupřesnila.
Další vývojáři AI, jako je čínská společnost Alibaba či americká OpenAI, se také snaží proniknout do nové oblasti zlepšováním schopnosti uvažování a sebezdokonalování.
Americká internetová společnost Meta Platforms o víkendu představila nejnovější řadu modelů AI Llama 4 a jako první použila architekturu Mixture of Experts (MoE). Tento model je složený z více specializovaných podmodelů a když dostane nějaký úkol, vybere si, který z těchto podmodelů je nejlépe schopen daný úkol zpracovat. Tento přístup může být efektivnější, protože model nevyužívá pro každý úkol všechny své zdroje, ale soustředí se pouze na ty, které jsou skutečně relevantní. Modely DeepSeek se významně spoléhají na MoE, aby efektivněji využívaly zdroje.
The post DeepSeek s univerzitou v Pekingu vyvíjí AI modely založené na sebekritickém principu. Chtějí snížit provozní náklady appeared first on Forbes.