Forget AGI—Sam Altman celebrates ChatGPT finally following em dash formatting rules
Pomlčky se za posledních několik let staly tím, co mnozí považují za výmluvný znak textu generovaného umělou inteligencí. Interpunkční znaménko se často objevuje ve výstupech z ChatGPT a dalších chatbotů s umělou inteligencí, někdy až do té míry, že si čtenáři myslí, že mohou psaní umělé inteligence identifikovat pouze podle jejího nadužívání – i když ji lidé také mohou nadužívat.
Ve čtvrtek večer CEO OpenAI Sam Altman přidal na X, že ChatGPT začal dodržovat vlastní pokyny, aby se vyhnul používání pomlček. „Malé, ale radostné vítězství: Pokud ChatGPT řeknete, aby ve vašich vlastních instrukcích nepoužíval pomlčky, konečně dělá to, co má dělat!“ napsal.
Tento příspěvek, který přišel dva dny po vydání nového AI modelu OpenAI GPT-5.1, vyvolal smíšené reakce od uživatelů, kteří se roky potýkají s tím, aby chatbot dodržoval konkrétní preference formátování. A toto „malé vítězství“ vyvolává velmi velkou otázku: Pokud se nejcennější společnost pro umělou inteligenci na světě potýká s kontrolou něčeho tak jednoduchého, jako je používání interpunkce, i po letech pokusů, možná je to, co lidé nazývají umělá obecná inteligence (AGI), dál, než někteří v oboru tvrdí.
“Skutečnost, že uplynuly 3 roky od prvního spuštění ChatGPT, a teprve nyní se vám podařilo dosáhnout toho, aby dodržoval tento jednoduchý požadavek, říká hodně o tom, jak malou kontrolu nad ním máte, a o vašem porozumění jeho vnitřnímu fungování,” napsal jeden uživatel X v odpovědi. “Není to dobré znamení pro budoucnost.”
Zatímco Altman rád veřejně hovoří o AGI (hypotetická technologie ekvivalentní lidem v obecné schopnosti učení), superinteligence (mlhavý koncept pro AI, který je daleko za lidskou inteligencí) a „magická inteligence na obloze“ (jeho termín pro cloud computing AI?) a zároveň získává finanční prostředky pro OpenAI, je jasné, že tady a teď na Zemi ještě nemáme spolehlivou umělou inteligenci.
Ale počkejte, co je to vůbec pomlčka a proč na tom tak záleží?
AI modely milují pomlčky, protože my ano
Na rozdíl od spojovníku, což je krátké interpunkční znaménko používané ke spojování slov nebo částí slov, které žije s vyhrazenou klávesou na vaší klávesnici (-), je pomlčka dlouhá čárka označená speciálním znakem (—), kterou spisovatelé používají k oddělení parentetické informace, naznačují náhlou změnu myšlenky nebo uvádějí shrnutí nebo vysvětlení.
Ještě před érou AI jazykových modelů někteří spisovatelé často naříkali nadužívání pomlčky v moderním psaní. V článku ze Slate z roku 2011 spisovatelka Noreen Malone tvrdila, že spisovatelé používali pomlčku „místo správného vytváření vět“ a že nadměrné spoléhání se na ni „odrazuje od skutečně efektivního psaní“. Různá vlákna Reddit zveřejněná před spuštěním ChatGPT obsahovala spisovatele, kteří buď bojovali o etiketu správného používání pomlčky, nebo přiznávali svou časté používání jako tajnou zálibu.
V roce 2021 jeden spisovatel na subredditu r/FanFiction napsal: „Nejdéle jsem byl závislý na pomlčkách. Nacházejí si cestu do každého odstavce, který píšu. Miluji tu ostrou přímku, která mi dává záminku, abych strčil detaily nebo myšlenky do jinak spořádaného odstavce. Dokonce i poté, co jsem se po asi dvou letech bloku spisovatele vrátil k psaní, okamžitě nacpu co nejvíce pomlček, jak jen můžu.“
Kvůli tendenci chatbotů s umělou inteligencí nadužívat je, se detekční nástroje a lidští čtenáři naučili spatřit použití pomlčky jako vzorec, což vytváří problém pro malou podmnožinu spisovatelů, kteří přirozeně upřednostňují toto interpunkční znaménko ve své práci. V důsledku toho si někteří novináři stěžují, že AI „zabíjí“ pomlčku.
Nikdo přesně neví, proč LLM mají tendenci pomlčky nadužívat. Viděli jsme širokou škálu spekulací online, které se snaží tento jev vysvětlit, od zjištění, že pomlčky byly populárnější v knihách z 19. století, které se používaly jako tréninková data (podle studie z roku 2018 dosáhlo používání pomlček v anglickém jazyce vrcholu kolem roku 1860 a poté klesalo do poloviny 20. století) nebo si možná AI modely vypůjčily tento zvyk z automatické konverze znaku pomlčky na blogovacím webu Medium.
Jedna věc, kterou jistě víme, je, že LLM mají tendenci vydávat často viděné vzorce ve svých tréninkových datech (předané během počátečního procesu školení) a z následného procesu učení posilováním, který se často spoléhá na preference lidí. V důsledku toho vám jazykové modely AI předkládají jakýsi „vyhlazený“ průměrný styl čehokoli, o co je požádáte, moderovaný čímkoli, co jsou podmíněny produkcí prostřednictvím zpětné vazby od uživatelů.
Nejpravděpodobnějším vysvětlením je tedy stále, že žádosti o psaní ve stylu profesionála od modelu AI, který je trénován na obrovském množství příkladů z internetu, se budou silně opírat o převládající styl v tréninkových datech, kde se pomlčky často objevují ve formálním psaní, zpravodajských článcích a redakčním obsahu. Je také možné, že během tréninku prostřednictvím zpětné vazby od lidí (nazývané RLHF) dostaly odpovědi s pomlčkami, ať už z jakéhokoli důvodu, vyšší hodnocení. Snad to bylo proto, že se tyto výstupy zdály hodnotitelům sofistikovanější nebo poutavější, ale to je jen spekulace.
Od pomlček k AGI?
Abychom pochopili, co Altmanovo „vítězství“ skutečně znamená a co říká o cestě k AGI, musíme pochopit, jak ve skutečnosti fungují vlastní pokyny ChatGPT. Umožňují uživatelům nastavit trvalé preference, které platí napříč všemi konverzacemi, přidáním písemných pokynů k výzvě, která je modelu předána těsně před zahájením chatu. Uživatelé mohou specifikovat požadavky na tón, formát a styl, aniž by museli tyto požadavky ručně opakovat v každém novém chatu.
Funkce však ne vždy fungovala spolehlivě, protože LLM nefungují spolehlivě (dokonce to OpenAI a Anthropic svobodně přiznávají). LLM převezme vstup a vygeneruje výstup, vyplivne statisticky pravděpodobné pokračování výzvy (systémovou výzvu, vlastní instrukce a vaši historii chatu) a ve skutečnosti „nerozumí“ tomu, o co žádáte. U výstupů jazykového modelu AI je vždy zapojena určitá dávka štěstí, aby dělaly to, co chcete.
V našem neformálním testování GPT-5.1 se vlastními instrukcemi se zdálo, že ChatGPT dodržuje náš požadavek, aby nevydával pomlčky. Ale navzdory Altmanově tvrzení se zdá, že odpověď od uživatelů X ukazuje, že zkušenosti s touto funkcí se nadále liší, alespoň pokud požadavek není umístěn do vlastních instrukcí.
Takže pokud jsou LLM statistické generátory textu, co vlastně znamená „následování instrukcí“? To je klíč k rozbalení hypotetické cesty od LLM k AGI. Koncept následování instrukcí pro LLM se zásadně liší od toho, jak obvykle uvažujeme o následování instrukcí jako lidé s obecnou inteligencí, nebo dokonce tradiční počítačový program.
V tradičním výpočtu je následování instrukcí deterministické. Řeknete programu „neobsahuj znak X“ a ten tento znak neobsahuje. Program provádí pravidla přesně tak, jak jsou napsána. U LLM je „následování instrukcí“ skutečně o posunu statistických pravděpodobností. Když řeknete ChatGPT „nepoužívej pomlčky“, nevytváříte pevné pravidlo. Přidáváte text do výzvy, která způsobuje, že tokeny spojené s pomlčkami jsou méně pravděpodobné, že budou vybrány během procesu generování. Ale „méně pravděpodobné“ není „nemožné“.
Každý token, který model vygeneruje, je vybrán z rozdělení pravděpodobnosti. Vaše vlastní instrukce ovlivňuje toto rozdělení, ale konkuruje tréninkovým datům modelu (kde se pomlčky v určitých kontextech objevovaly často) a všemu ostatnímu ve výzvě. Na rozdíl od kódu s podmíněnou logikou neexistuje žádný samostatný systém, který by ověřoval výstupy proti vašim požadavkům. Instrukce je jen více textu, který ovlivňuje proces statistické predikce.
Když Altman slaví, že se GPT konečně vyhnul pomlčkám, skutečně slaví, že OpenAI vyladil nejnovější verzi GPT-5.1 (pravděpodobně prostřednictvím učení posilováním nebo jemným laděním), aby ve svých výpočtech pravděpodobnosti více zvažovala vlastní instrukce.
Je tu ironie ohledně kontroly: Vzhledem ke pravděpodobnostní povaze problému neexistuje žádná záruka, že problém zůstane opraven. OpenAI průběžně aktualizuje své modely za oponou, a to i ve stejném čísle verze, a upravuje výstupy na základě zpětné vazby od uživatelů a nových tréninkových běhů. Každá aktualizace přichází s různými charakteristikami výstupu, které mohou zrušit předchozí behaviorální ladění, což je jev, kterému výzkumníci říkají „alignment tax.“
Precizní ladění chování neuronové sítě ještě není přesná věda. Vzhledem k tomu, že všechny koncepty zakódované v síti jsou propojeny hodnotami zvanými váhy, může úprava jednoho chování změnit ostatní nezamýšlenými způsoby. Opravte nadužívání pomlček dnes a zítřejší aktualizace (zaměřená například na zlepšení kódovacích schopností) je může neúmyslně vrátit, ne proto, že by je OpenAI chtěla mít, ale proto, že taková je povaha snahy řídit statistický systém s miliony soupeřících vlivů.
To se dostává k implikované otázce, kterou jsme zmínili dříve. Pokud je kontrola používání interpunkce stále problémem, který se může kdykoli objevit, jak daleko jsme od AGI? Nemůžeme to s jistotou vědět, ale zdá se stále pravděpodobnější, že nevznikne jen z velkého jazykového modelu. Je to proto, že AGI, technologie, která by replikovala lidskou obecnou schopnost učení, by pravděpodobně vyžadovala skutečné porozumění a sebereflexivní úmyslné jednání, nikoli statistické porovnávání vzorů, které se někdy shoduje s instrukcemi, pokud máte štěstí.
A co se týče štěstí, někteří uživatelé stále nemají štěstí s ovládáním používání pomlček mimo funkci „vlastní instrukce“. Po sdělení v chatu, aby nepoužíval pomlčky v chatu, ChatGPT aktualizoval uloženou paměť a odpověděl jednomu uživateli X: „Rozumím – od nynějška se budu striktně držet krátkých spojovníků.“