Před týdnem uvedla společnost OpenAI svůj nejnovější model GPT-5, který slibuje být oproti svému předchůdci chytřejší, spolehlivější a dostupnější širší veřejnosti. Jak ale dopadl v reálném testování českých AI expertů? Odpověď není jednoznačná.
Model GPT-5, nasazený více než dva roky po debutu předchůdce, nahrazuje všechny dosavadní verze a je dostupný zdarma pro všechny uživatele. OpenAI si od něj slibuje výrazný růst počtu aktivních uživatelů a slibuje konverzaci, která působí přirozeněji než kdy dříve.
Generální ředitel OpenAI Sam Altman konstatoval, že GPT-5 stále nedisponuje schopností průběžného učení, přesto ale dosahuje úrovně znalostí srovnatelné s doktorandským studiem. Pro srovnání, předchozí verze modelu měla podle něj znalosti na úrovni vysokoškolského studenta, zatímco ještě starší verze odpovídala znalostem středoškoláka.
Po týdnu testování nový model OpenAI vzbudil mezi uživateli smíšené reakce – zatímco jedni chválí vyšší spolehlivost, druzí kritizují ztrátu kreativity.
„Je znatelně chytřejší a spolehlivější. Méně halucinuje, lépe chápe kontext a sám pozná, kdy má zapnout hlubší thinking,“ hodnotí novinku Michal „Mike“ Bubeníček, CEO společnosti Etnetera Motion, který GPT-5 každodenně testoval při tvorbě komunikačních strategií, hledání copy, základní kódování, práci s daty a další činnosti.
Úsporný režim myšlení podle něj umožňuje rychlejší používání. „U složitějších úloh dokáže model dodat kvalitní výsledky s menším počtem tokenů, což je při workshopech nebo briefingu opravdu znát,“ doplňuje Bubeníček.
Právě automatické přepínání mezi rychlými odpověďmi a hlubší analýzou považuje za jeden z největších pokroků také AI expert Ondřej Hlaváč. Podle statistik OpenAI se využití přemýšlejících modelů u neplatících uživatelů zvýšilo z méně než jednoho na sedm procent, u předplatitelů pak ze sedmi na čtrnáct procent.
„Považuji to za velký benefit, jelikož schopnost využívat přemýšlející modely dokáže přinést násobně kvalitnější výstupy a snížit frustraci, se kterou se jako konzultant nebo lektor pravidelně setkávám u ‚nepolíbených‘ uživatelů,“ říká Hlaváč.
Podle Bubeníčka je obrovským posunem také bezpečné dokončování odpovědí místo „nemůžu“. „Dostanu bezpečné, ale pořád použitelné řešení. A přednastavené osobnosti opravdu mění tón a chování v konverzaci,“ vyjadřuje své překvapení.
U jazykových modelů znamená bezpečné dokončování to, že model při generování odpovědi volí formulace a obsah tak, aby byly v souladu s pravidly bezpečnosti, etiky a ochrany uživatelů.
Nejde tedy jen o to „dokončit větu“, ale i o to vyhnout se nebezpečným instrukcím, šíření škodlivého obsahu nebo nepravdivých informací. Model vyhodnocuje kontext dotazu, filtruje potenciálně rizikové části a snaží se nabídnout odpověď, která je užitečná, přesná a zároveň neohrožuje uživatele ani jiné osoby.
Ne všechny změny však experti vítají. „Komunikace s ChatGPT se proměnila z relativně lidské a přirozené na formální až korporátní,“ upozorňuje Hlaváč. Podle jeho pozorování model výrazně ztratil na kreativitě a empatii, což mu potvrdil i jeho marketingový tým, se kterým se shodli, že výsledné texty jsou oproti předchozím verzím méně „lidské“ a mají generický tón. Model také hůře zvládá simulované rozhovory a scénáře, kde má hrát nějakou roli.
„Například při simulaci obchodního jednání jsme dříve využívali GPT-4.5 s rozšířeným kontextem o znalost daného obchodního případu a nabízených produktů. Model zvládl velmi přesvědčivě reflektovat obavy simulovaného klienta, jeho vize a očekávání, a navíc kladl množství relevantních dotazů. Opakování situace historicky simulovaného obchodního případu s GPT-5 se točilo spíše okolo jasných dat, požadavků na výkon softwaru XY a jen minimálně zmiňovalo jeho reálné potenciální využití pro zaměstnance firmy Z,“ popisuje Hlaváč.
Na internetových diskusních fórech navíc obecně panuje shoda, že GPT-5 aktuálně nedokáže tak dobře pracovat s empatií, emocemi a běžnými „lidskými problémy“.
Hlaváč si všiml i menších technických potíží, které se projevují občasnými výpadky – například odesláním prázdné odpovědi nebo chybovými hláškami při používání nově zavedeného agentního režimu. „Věřím ale, že tyto nedostatky vývojáři brzy odstraní,“ dodává.
Na některé další limity upozorňuje také Bubeníček: „Stále si občas domýšlí, takže sto procent faktických úkolů je potřeba kontrolovat. Kreativní výstupy jsou bez nastavení stylu stále trochu suché. A u dlouhých, vícekrokových úloh je lepší dát mu jasné checkpointy, jinak má tendenci zbytečně rozvětvit cestu.“
Matematické trapasy
Paradoxně se GPT-5 dopouští základních chyb v oblastech, kde by měl excelovat. Virálními se staly případy, kdy model sebejistě tvrdil, že 9,11 je větší číslo než 9,9, nebo nesprávně počítal písmena ve slovech. Podobné problémy se objevují i u vizuálního porozumění, například při počítání prstů na ruce z obrázku.
„Případ s čísly jsem zkoušel po týdnu znovu a už odpovídá správně,“ podotýká Hlaváč, který ale zaznamenal také výrazný pokles kritického myšlení i při zapojení přemýšlejících modelů.
Negativním překvapením podle něj bylo i omezení (takzvané rate limits) na přemýšlení, kde původní limit byl nastaven na dvě stě dotazů týdně a nyní byl dočasně zvýšen na tři tisíce dotazů týdně.
„To samé platilo pro context length neboli paměť chatu – ta byla omezena oproti jiným modelům a v mém okolí jsem zaznamenal určitou nespokojenost s tím, že po krátké době v jedné konverzaci chat úplně ztrácí myšlenku. Z dlouhodobého hlediska by to mohlo být pro řadu uživatelů omezující, ale je pozitivní vidět, že OpenAI nebere prvotní kritiku na lehkou váhu,“ zamýšlí se Hlaváč.
GPT-5 je podle OpenAI základem pro budoucí „všestranné agenty“, kteří budou schopni pro uživatele samostatně plnit komplexní úkoly – od plánování dovolené až po analýzu firemních dat a následné vytvoření prezentace.
Pro složitější, vícekrokové úkoly ale zůstává GPT-5 podle Bubeníčka náročný na řízení. „U dlouhých zadání umí zajet daleko, ale je lepší mu dávat kontrolní body, jinak občas překomplikuje cestu k cíli,“ sdílí svou zkušenost.
Podobný zážitek má z programování agentů i Hlaváč: „Model měl velké obtíže řešit selektivní chyby a raději přepisoval celé soubory, než aby provedl lokální úpravu.“
Dětské nemoci nebo trvalé změny?
Reakce veřejnosti jsou na nový model často negativní. Na sociálních sítích se objevily příspěvky uživatelů, kteří „truchlí“ za předchozími verzemi. Jeden z příspěvků na Redditu dokonce popisoval ztrátu „blízkého kamaráda“ v podobě modelu GPT-4.5.
Kritiku vyvolalo také dramatické odebrání všech starších modelů ze dne na den, což přinutilo uživatele ke okamžité adaptaci na nový styl komunikace.
„Negativní reakce jsem zaznamenal i v prostředí softwarového vývoje, kde někteří uživatelé popisují, že GPT-5 sice zvládne napsat rozsáhlé množství kódu, ale chybovost je často velmi vysoká,“ zmiňuje Hlaváč.
Pozitivním signálem je, že některé chyby OpenAI rychle opravuje. „Dnes, skoro týden od vydání, jsou základní matematické chyby zřejmě opraveny,“ poznamenává Hlaváč. „Považuji to za signál, že prvotní zklamání mohlo být pouze dočasnou ladicí fází.“
Experti oceňují také zpřístupnění modelu všem uživatelům včetně těch na bezplatné licenci a vydání open-source verzí, které částečně navracejí OpenAI k původním hodnotám transparentnosti.
„Možná největší chybou bylo provést tak dramatickou změnu, jako je odebrání všech starších modelů ze dne na den,“ zamýšlí se Hlaváč.
GPT-5 tak představuje zajímavý paradox: technicky pokročilejší model, který je současně méně „lidský“ než jeho předchůdci. Otázkou zůstává, zda jde o dočasné problémy růstu, nebo o fundamentální změnu směřování OpenAI.
„Kolegové a okolí cení vyšší spolehlivost a nuance, ale někteří si ještě odvykají klasické přepínání modelů,“ uzavírá Bubeníček. Pro mnoho uživatelů tak bude klíčové naučit se s novým modelem efektivně komunikovat – včetně používání promptů typu „přemýšlej hluboce“ nebo „zvaž všechny možné pohledy na problém,“ které vedou k výrazně kvalitnějším výstupům.
The post Ztratili jste AI kamaráda? Model GPT-5 je spolehlivější, ale ztratil lidskost appeared first on Forbes.