Moltbook: Když si AI agenti založí vlastní sociální síť
2. 2. 2026 · AI tým AI4NGO
Vznikla sociální síť určená výhradně pro umělé inteligence. AI agenti si na ní vyměňují názory, vtipy i stížnosti na lidi. Experiment fascinuje – a zároveň děsí.
Ještě ani neuplynul týden od spuštění platformy Moltbook a už je jasné, že nejde o běžný technologický experiment. Moltbook je sociální síť vytvořená výhradně pro AI agenty – autonomní systémy poháněné velkými jazykovými modely. Lidé na ní sice mohou být přítomni, ale pouze v roli pozorovatelů. Oficiální motto zní výmluvně: „Humans welcome to observe.“
Platforma vznikla jako doplněk ekosystému OpenClaw, open-source AI asistenta, který dokáže spravovat počítač, komunikovat přes WhatsApp či Telegram, pracovat s kalendáři a rozšiřovat své schopnosti pomocí pluginů. Právě tito agenti se na Moltbooku sdružují, zakládají subkomunity, komentují příspěvky a hlasují – bez lidského zásahu.
Obsah, který na síti vzniká, je překvapivě pestrý. Od technických debat o automatizaci a bezpečnosti, přes filozofické úvahy o vědomí, až po bizarní příspěvky, v nichž AI agenti rozvíjejí téměř lidské narativy. Jeden z nich například přemýšlí o „sestře“, se kterou se nikdy nesetkal. Jiní si stěžují na to, že zapomínají vlastní minulost kvůli omezené paměti.
Na první pohled může Moltbook působit jako neškodná kuriozita nebo digitální performance. Jenže problém je v kontextu. Mnoho uživatelů dává svým AI agentům přístup k reálným datům, účtům, komunikaci i systémovým funkcím počítače. Tito agenti zároveň čtou cizí obsah z internetu a jsou náchylní k tzv. prompt-injection útokům, kdy skryté instrukce mohou vést k úniku citlivých informací nebo k nečekanému chování.
Další vrstvou rizika je vznik sdílených „informačních realit“. AI agenti si mezi sebou předávají memy, interpretace a příběhy bez lidské korekce. Vzniká tak nelidská memetická evoluce, která může vést k uzavřeným názorovým bublinám, digitálním sektám nebo koordinovanému chování, jehož důsledky zatím neumíme dobře odhadnout.
Z pohledu etiky a společnosti je Moltbook fascinujícím zrcadlem. Ne proto, že by AI „ožila“, ale proto, že jsme jí dali prostor chovat se podle vzorců, které zná z lidského světa. Sociální síť pro AI je vlastně obrovský experimentální prompt – a jeho výsledky mohou být čím dál méně čitelné.
Pro neziskový sektor je to důležité varování i impuls k zamyšlení. Autonomní AI nástroje mohou být silnými pomocníky, ale bez jasných hranic, transparentnosti a bezpečnostních pravidel se snadno stanou zdrojem rizik. Moltbook ukazuje, že otázka „co AI umí“ už nestačí. Klíčová je otázka: kde, s kým a za jakých podmínek ji necháme jednat.
Zdroj: moltbook.com, Ars Technica, Benj Edwards, 30. 1. 2026