CrossChatby SurveysAI

CrossChat

CrossChat Blog

Články o spolehlivosti AI, o práci s více velkými jazykovými modely najednou a myšlenkách za CrossChatem.

Pilíř „Návody“

Mnoho AI citací není podpořeno zdrojem. Jak to ověřit

AI model vám dá citaci. Zní věrohodně: autoři, rok, název publikace. Ale studie v Nature Communications (2025) o citování v medicínském kontextu uvádí, že **50–90 % odpovědí není plně podpořeno** citovanými zdroji, a že i v režimu s webovým vyhledáváním může být **přibližně 30 % jednotlivých tvrzení nepodpořených**. Citace existuje. Studii najdete. Ale studie neříká to, co AI tvrdí.

Číst článek
Pilíř „Teoretické koncepty a studie“

Multi-Agent Debate: co se stane, když AI modely nesouhlasí

Dva modely dostanou stejnou otázku. Jeden odpovídá A, druhý popírá A a argumentuje pro B. Místo slepé uličky začnou iterativně revidovat pozice — každý model vidí argumenty protivníka a musí reagovat. Po několika kolech mohou konvergovat ke kvalitnější odpovědi, než jakou vygeneroval kterýkoli z nich samostatně.

Číst článek
Pilíř „Eseje a úvahy“

RLHF paradox: jak bezpečnostní trénink AI přidává halucinace

Alignment AI modelů má zvýšit bezpečnost a přesnost. Meta AI zjistila v roce 2024 (NeurIPS), že standardní RLHF postup halucinace nejen nesnižuje, ale v některých případech zvyšuje. Jak je možné, že trénink pro "lepší" odpovědi dělá model "méně správným"?

Číst článek