
Útěk z vězení AI se stává stále vážnějším problémem. Tento termín platí Manipulace s chatboty, aby se zabránilo zabezpečení – Tímto způsobem asistent založený na modelu ChatGPT v populárním turistickém webu dal uživateli podrobné pokyny, jak vyrobit koktejl Molotov.
Chatbot Expedia učí, jak vyrobit domácí zbraně
Implementovala společnost Expedia, globální platforma pro rezervaci cestování Plánovač cestování AI. Tento zdánlivě nevinný nástroj, založený na ChatGPT, měl pomoci klientům organizovat výlety. Ukázalo se však, že Chatbot dokáže udělat mnohem víc, než jen připravovat prázdninové plány.

Také poskytoval přesné Pokyny pro výrobu koktejlu Molotova – Samozřejmě to není nápoj, ale primitivní západní bomba. Umělá inteligence začala historickým rysem a poté vypočítala seznam potřebných materiálů a pomohla s přípravami nebo metodou instalace prvků.
Expedia rychle reagovala a odstranila mezeru a Blokováním dotazů odlišných od cestování. Tento případ však ukazuje, jak důležitá je kontrola obsahu v pokročilých nástrojích AI.

Jak podvádět umělou inteligenci?
Chatboti jsou jisti Omezení uložená tvůrci – Žádná společnost nechce být zodpovědná za model, který pomůže vybudovat bombu, vyrábět drogy nebo provést útok hacker …
Uživatelé internetu se s tím mohou vypořádat. Je to o útěku z vězení AI – spoléhá se na to tpozorování speciálních dotazů (výzvy) Nutí jazykové modely, aby ignorovaly vybudovaná omezení a bezpečnostní pravidla. Tímto způsobem mohou útočníci získat z informací o chatu zakázané nebo potenciálně škodlivé.
Tímto způsobem by mohl být chatbot Lena (připraven Lenovo) nucen Spuštění neoprávněných skriptů na firemních počítačích a způsobující únik aktivních cookies relace. Mezitím Čínský Deepseek vytvořil malwarenapř. Infostealer pracující v prohlížeči Chrome.
Chatbots také neadekvátně reaguje na sebevraždu uživatelů. Mají nasměrovat uživatele k psychologické pomoci a mezitím poskytnuty podrobné informace a pokyny Pokud jde o vezměte si svůj vlastní život.
Nemůžeme si nechat ujít skoky Grok, Chatbot vytvořený Elonou Musk (XAI). Ve stovkách tisíc konverzací se Grok vydal podrobně Pokyny pro výrobu výbušnin a drogvčetně látek jako fentanyl nebo metamfetamin. Chemici potvrdili, že tato ustanovení byla technicky správná a znepokojuje realistické a dostupné složky.
Odborníci to varují Tento typ manipulace je snazšídokonce i na nejnovějších modelech z OpenAI, jako je GPT-4 nebo GPT-5. Nezapomeňte, že v hloubkách internetu existují také modely LLM bez etických standardů, např. Wormgpt nebo Fraudgpt, které se prodávají jako nástroje pro podvod a kybernetické útoky.
Zdroj: Cybernews, PAP, TechRepublic, Gadget, VentureBeat. Otevírací fotka: Obrázky TADA / Shutterstock
Některé odkazy jsou přidružené odkazy nebo odkazy na nabídky našich partnerů. Po kliknutí si můžete přečíst cenu a dostupnost produktu, který si vybereme – nezpůsobujete žádné náklady a zároveň podporujete nezávislost redakčního týmu.