Viac ako 560 zamestnancov spoločnosti Google podpísalo otvorený list, v ktorom vyzývajú generálneho riaditeľa firmy Alphabet – čo je materská firma Googlu – Sundara Pichaia, aby neschválil potenciálnu dohodu s ministerstvom obrany Spojených štátov.
Výzva podľa denníka Financial Times nasleduje po správach, že model umelej inteligencie Gemini spoločnosti Google by mohol byť k dispozícii pre utajované vojenské operácie. Signatári tvrdia, že zatiaľ nie sú zavedené dostatočné záruky, ktoré by zabránili zneužitiu AI.
V liste zamestnanci varujú pred sprístupnením systémov umelej inteligencie pre aplikácie spojené s autonómnymi zbraňami, so sledovaním alebo s inými vysokorizikovými oblasťami. Poukazujú na predchádzajúce záväzky spoločnosti nevyvíjať AI na účely, ktoré by mohli spôsobiť priamu ujmu ľuďom, a vyzývajú spoločnosť Google, aby tieto zásady dodržiavala. [Z dôvodu objektivity treba dodať, že spoločnosť Google (Alphabet) má len v samotných Spojených štátoch desiatky tisíc zamestnancov, niektoré zdroje uvádzajú, že ich je viac ako 100-tisíc, pozn. red.]
Spomínaná otázka sa dotýka citlivého bodu v diskusii, ktorá už roky naberá na obrátkach. Hoci sa o umelej inteligencii často diskutuje ako o kľúčovej ekonomickej technológii, do popredia sa čoraz viac dostáva jej bezpečnostný a etický rozmer. Moderné systémy umelej inteligencie sa nevyužívajú len v civilných aplikáciách, ale majú význam aj vo vojenskom kontexte vrátane zhromažďovania spravodajských informácií, logistiky, analýzy údajov a podpory operačného rozhodovania.
Proti Pentagónu už protestovali
V tejto súvislosti sa spolupráca medzi technologickými spoločnosťami a štátnymi bezpečnostnými agentúrami dostáva pod čoraz väčšiu kontrolu. Najmä v Spojených štátoch vzrástol strategický význam pokročilej AI. V kontexte geopolitického napätia, najmä s Čínou, sa technologické prvenstvo čoraz viac považuje za otázku národnej bezpečnosti.
Súčasný spor v spoločnosti Google je ozvenou predchádzajúcich vnútorných konfliktov. V roku 2018 protestovalo zhruba štyritisíc zamestnancov proti projektu Pentagónu Maven, ktorý využíval umelú inteligenciu na analýzu záznamov z dronov, rozpoznávanie objektov či automatické označovanie potenciálnych cieľov.
Na základe interného odporu sa spoločnosť Google rozhodla nepredĺžiť zmluvu a neskôr zaviedla zásady upravujúce používanie umelej inteligencie vrátane obmedzení týkajúcich sa aplikácií súvisiacich so zbraňami a sledovaním.
V poslednom období spoločnosť sústredila pozornosť na zmeny spomínaných zásad, pričom odstránila alebo zmiernila formulácie týkajúce sa vojenských alebo škodlivých použití. Kritici to interpretovali ako znak možnej zmeny strategického smerovania využitia AI, zrejme najmä z komerčných dôvodov.
Predtým to bol Anthropic
S podobnými otázkami zápasia aj iné firmy zaoberajúce sa umelou inteligenciou. Napríklad spoločnosť Anthropic nedávno vzbudila pozornosť po správach o nezhodách s americkými orgánmi v súvislosti s bezpečnostnými opatreniami a pravidlami prístupu k modelom AI.
Napätie medzi americkou vládou a firmou Anthropic, ktorá stojí za jazykovým modelom Claude, sa začalo vyostrovať na prelome rokov 2025 a 2026. Jadrom sporu bol zásadný konflikt medzi požiadavkami štátu na využitie umelej inteligencie a etickými limitmi, ktoré si firma sama nastavila.
Pentagón a ďalšie bezpečnostné zložky tlačili na Anthropic, aby uvoľnil bezpečnostné obmedzenia svojich modelov. Cieľom bolo umožniť ich širšie nasadenie v oblastiach ako spravodajská analýza, sledovanie či potenciálne aj vojenské aplikácie. Anthropic to však odmietol s argumentom, že by tým porušil vlastné pravidlá a vystavil technológiu riziku zneužitia, najmä pri autonómnych zbraniach alebo masovom dohľade.
Reakcia administratívy Donalda Trumpa bola tvrdá, šéf Bieleho domu dokonca vyhlásil, že firmu „vyhodili ako psov“. Federálne agentúry dostali pokyn prestať používať technológie Anthropicu, najmä model Claude, a firma bola dokonca označená za „bezpečnostné riziko dodávateľského reťazca“ – kategóriu, ktorá sa dovtedy spájala skôr so zahraničnými hrozbami než s americkými technologickými firmami. Zrušené boli aj významné vládne kontrakty, čo malo okamžitý finančný aj reputačný dosah na spoločnosť.
Anthropic sa voči krokom vlády ohradil a spor posunul na súdy. Tvrdí, že ide o odvetu za odmietnutie prispôsobiť sa požiadavkám, ktoré by mohli byť v rozpore s verejným záujmom a bezpečnosťou. Celý konflikt zároveň poodkryl širší problém, kto má mať posledné slovo pri nasadzovaní pokročilej umelej inteligencie – štát v mene národnej bezpečnosti alebo súkromné firmy, ktoré technológiu vyvíjajú a nesú za ňu zodpovednosť?
V priebehu roka 2026 sa však tón americkej administratívy postupne trochu zmiernil. Biely dom začal naznačovať ochotu prehodnotiť tvrdý postoj a hľadať cestu k obnove spolupráce s Anthropicom. Nie všetky časti bezpečnostného aparátu však s týmto obratom súhlasia a základný spor o hranice použitia AI zostáva nevyriešený.
Prípad Anthropicu aj súčasný protest v spoločnosti Google odráža diskusiu, ktorá presahuje rámec niekoľkých podnikateľských subjektov. Týka sa vzťahu medzi technologickými inováciami, bezpečnostnými prioritami štátu a pravidlami, ktorými sa riadi používanie nových technológií. Keďže možnosti AI sa naďalej rozširujú, význam takej diskusie bude pravdepodobne narastať.
Pôvodný text bol publikovaný na webe sesterského denníka Statement.com.