Kalifornie opět tlačí na povinné bezpečnostní zprávy pro AI: Jak legislativa mění pravidla hry
10. 7. 2025 · AI tým AI4NGO
Kalifornský senátor Scott Wiener představuje novelu zákona, která by vyžadovala od největších AI společností veřejné zveřejňování bezpečnostních protokolů a hlášení incidentů. Tento krok by znamenal průlom v transparentnosti a odpovědnosti AI vývojářů, což je zásadní pro bezpečný rozvoj umělé inteligence.
V době, kdy se umělá inteligence rychle rozvíjí a proniká do všech sfér našeho života, roste i potřeba jasných pravidel a kontroly jejího bezpečného nasazení. Kalifornský senátor Scott Wiener nyní přichází s novým návrhem zákona SB 53, který by vyžadoval od největších světových AI firem, jako jsou OpenAI, Google nebo Anthropic, povinné zveřejňování bezpečnostních a bezpečnostních protokolů a také hlášení v případě, že dojde k bezpečnostním incidentům. Tento návrh je reakcí na předchozí neúspěšnou iniciativu SB 1047, která podobné požadavky obsahovala, ale byla vetována guvernérem Gavin Newsomem pod tlakem technologických gigantů z Silicon Valley.
Nový zákon tak usiluje o nalezení kompromisu mezi nezbytností transparentnosti a podporou inovací v rychle rostoucím kalifornském AI průmyslu. Podle senátora Wienera je cílem vytvořit zákon, který bude vědecky podložený a spravedlivý pro všechny zainteresované strany. Významná je také spolupráce se skupinou AI expertů včetně uznávané badatelky Fei-Fei Li, která pomáhá formovat bezpečnostní politiku státu.
Povinné hlášení a ochrana oznamovatelů: Nová pravidla pro AI firmy
SB 53 klade důraz nejen na transparentnost, ale také na ochranu zaměstnanců AI laboratoří, kteří by se rozhodli upozornit na kritická rizika spojená s technologiemi jejich zaměstnavatelů. Kritériem pro "kritické riziko" je například přispění k úmrtí nebo zranění více než 100 lidí či škody přesahující jednu miliardu dolarů. Tento prvek zákona tak zavádí důležitý systém whistleblower ochrany, který může výrazně pomoci odhalit potenciální nebezpečí včas.
Zákon zároveň počítá s podporou výzkumných institucí a startupů prostřednictvím vytvoření veřejného cloudového clusteru CalCompute, který má poskytovat výpočetní kapacity pro vývoj a testování rozsáhlých AI modelů. Tento přístup může podpořit inovace a zároveň umožnit lepší dohled nad technologiemi, které jsou v centru pozornosti.
Státní vs. federální regulace: Výzvy a příležitosti
Zatímco federální vláda Spojených států zvažovala desetileté moratorium na státní regulaci AI, které by omezilo množství různorodých zákonů a předpisů, tento návrh byl v Senátu výrazně odmítnut. To znamená, že státy jako Kalifornie či New York mají nyní možnost samostatně stanovovat pravidla pro bezpečnost AI technologií, což může vést k vzniku různých přístupů a standardů.
Odborníci na AI bezpečnost, jako Nathan Calvin z neziskové organizace Encode, považují požadavek na transparentnost vývojářů AI za "nezbytný a rozumný krok" k zajištění důvěry veřejnosti a vládních institucí. Přesto někteří giganti, například Google či OpenAI, nejsou vždy ochotni zveřejňovat bezpečnostní zprávy o svých nejnovějších modelech, což vyvolává otázky o odpovědnosti a důvěryhodnosti těchto firem. Pro zajímavost, Google například nezveřejnil bezpečnostní zprávu ke svému AI modelu Gemini 2.5 Pro hned po jeho vydání a OpenAI neučinilo totéž u GPT-4.1, přičemž nezávislé studie naznačily, že tento model může mít problémy s bezpečností a zarovnáním.
Pro neziskové organizace, výzkumníky i širší veřejnost je důležité sledovat, jak se tyto legislativní snahy vyvinou, protože mohou výrazně ovlivnit budoucnost vývoje a nasazení umělé inteligence nejen v Kalifornii, ale také globálně. V kontextu českého i evropského prostředí je pak inspirativní sledovat, jak jednotlivé státy přistupují k regulaci AI, včetně případů, kdy jsou do rozhodování zapojeni i experti a veřejnost, což může přispět k vyšší míře zodpovědnosti a etiky v technologiích. Více o tom, jak se umělá inteligence proměňuje v různých sektorech, najdete například v našem článku Umělá inteligence v sociálních službách.
Zákon SB 53 tak přináší nejen nové povinnosti pro AI firmy, ale i důležitý signál, že bezpečnost a transparentnost AI je nezbytná pro důvěru společnosti a udržitelný rozvoj technologií. Ačkoliv se jedná o kalifornský projekt, jeho dopady mohou inspirovat další státy, včetně těch v Evropě, k zavedení podobných opatření. Závěrem je nutné zdůraznit, že regulace AI je stále v plenkách a bude vyžadovat neustálý dialog mezi tvůrci technologií, legislativci a veřejností, aby bylo možné využít potenciál AI, aniž bychom podcenili její rizika.
Komentáře