Foto: Carl Lender / Wikimedia Commons

Godina 2026. sve jasnije pokazuje da svijet ne ide prema jednom zajedničkom modelu regulacije umjetne inteligencije. Umjesto toga oblikuju se tri velika pristupa: europski, koji stavlja naglasak na prava i rizik; američki, koji pokušava ostaviti više prostora inovaciji; i kineski, koji AI regulira u sklopu šire državne kontrole tehnologije i informacija.

Europska unija i dalje ima najrazrađeniji pravni okvir kroz AI Act. Iako Bruxelles sada odgađa dio rokova za visokorizične sustave, osnovna logika ostaje ista: što je veći društveni rizik primjene umjetne inteligencije, to su strože obveze za developere i korisnike takvih sustava.

SAD zasad nema jedinstven, sveobuhvatan savezni zakon, nego kombinaciju federalnih inicijativa, sektorskih pravila i aktivizma saveznih država. Upravo zato je američka rasprava manje usmjerena na jedinstven pravni model, a više na pitanje koliko regulacije tržište može podnijeti bez usporavanja razvoja.

Kina istodobno razvija vlastiti model u kojem su transparentnost, označavanje AI sadržaja i sigurnosne provjere podređeni širem cilju političke stabilnosti i državne kontrole. To nije pristup koji polazi primarno od individualnih prava, nego od strateških interesa države i kontrole informacijskog prostora.

Za globalne kompanije to stvara vrlo konkretan problem: isti AI proizvod danas mora prolaziti kroz tri različite regulatorne logike, s različitim obvezama, definicijama i granicama prihvatljivog rizika. Zato AI regulacija više nije samo pravno ili tehnološko pitanje, nego i geopolitičko polje na kojem se sve otvorenije sudaraju vrijednosti, tržišni interesi i državni prioriteti.