Dublin Tech Summit se shodl, že AI by se měla regulovat
Ze všech panelových diskuzí ohledně AI vyčnívala ta o AI v kontextu ochrany dat, píše Ondřej Šeliga, který navštívil Dublin Tech Summit.
V Dublinu se na přelomu května a června konal 7. ročník technologické konference Dublin Tech Summit. Témata, kterým se summit věnoval, pokrývala oblasti od kyberbezpečnosti po udržitelnost. Nepřekvapivě dominovalo téma umělá inteligence (dále jen AI).
Názory na AI
Úvodní přednášku týkající se AI přednesla Patricia Scanlon, kterou irská vláda jmenovala do pozice AI ambasadorky, jejímž cílem je vést veřejnou debatu o této problematice. Zmínila, že obecně panuje překvapení ze současných schopností AI. Toto téma se pak objevovalo i napříč dalšími panely. Adam Cheyer (spoluzakladatel Siri a Viv Labs) říkal, že konverzační AI předvídal již 10 let, ale schopnosti GPT4 ho zaskočily a stejně tak prý i mnoho vývojářů z OpenAI. Jako hlavní překvapivé body označil to, že GPT4 dokáže vysvětlovat své kroky a dokáže vyvozovat informace, které nebyly uvedeny v datovém vzorku, ze kterého se učila. Ben Goertzel (vědec a vývojář v oblasti AI) ve své přednášce schopnosti GPT4 trochu umenšoval. Zdůraznil, že zatím nejde o AGI (obecnou umělou inteligenci), i když se tak může tvářit. Jako hlavní omezení uvedl, neschopnost napsat vědecký článek se zdůvodněním a úvahami na více úrovních a že ve své podstatě velké jazykové modely (LLM) nejsou doopravdy kreativní a produkují jen deriváty toho z čeho se učily.
Vyhynutí, destabilizace, zastavení, regulace
Velkým tématem byla rizika, která AI přinese. O riziku vyhlazení lidstva se zmínil jen Seán Ó hÉigeartaigh (ředitel centra pro výzkum existenciálních hrozeb na univerzitě v Cambridge), a to tak, že ta šance je sice minimální, ale nenulová, takže se jí musíme zabývat. Sám i zastával názor, že je potřeba pozastavit vývoj těch nejvýkonnějších modelů (typu GPT4). Michael Richards (U.S. Chamber of Commerce) podobné riziko nepřímo zmínil, když využíval analogii o vývoji jaderných zbraní, kterou využíval ke zdůvodnění, proč naopak nemůžeme zastavit vývoj (aby se protistrana nedostala na vyšší úroveň).
Hlavní zmiňovaná rizika se však týkala destabilizace společnosti, kdy byla několikrát zmíněna schopnost AI ve velkém chrlit dezinformace, produkovat výstupy obsahující předsudky obsažené v historických datech nebo například uvádět chybná tvrzení, která si uživatelé sami neověří. Samostatným bodem pak byl dopad na pracovní trh, kdy např. Ben Goertzel říkal, že AGi (která podle něj přijde nejpozději do 7 let) nahradí až 70 % aktuální lidské práce. Michael Richards tento problém bagatelizoval a říkal, že je to stejné jako přechod z povozů na auta, ale zmiňoval, že tato revoluce bude nová v tom, že poprvé se týká především vysoce kvalifikovaných pracovníků. Seán Ó hÉigeartaigh poukázal na to, že AI může mít velký dopad na třetí svět, protože může jednoduše nahrazovat práce, které tam západní společnosti outsourcovaly (např. kódování).
Z důvodů výše uvedených rizik se většina přednášejících shodla na tom, že je AI potřeba regulovat. Často byl zmiňován i kontext sociálních sítí, které žádné regulaci nepodléhaly a jejich dopad na společnost byl problematický. Jako důležité body pro regulaci uvedli nutnost spolupráce na mezinárodní úrovni, alespoň G7, kde se již nějaké kroky dějí, a to tak, aby se regulovaly jen rizikové oblasti AI a nezabili jsme tím inovaci. Jako dobrý příklad byla uváděna práce Evropské unie na připravovaném EU AI Act. Tím, kdo se k regulaci stavěl zdrženlivěji, byl Michael Richards, který by preferoval tzv. soft law, tedy nastavení nějakých doporučení nebo certifikace, ke kterým by se firmy samy přihlásily.
Pozitivní dopady AI
Každá přednáška i debata sebou nesla i pohled na pozitivní stránky AI. Patricia Scanlon viděla roli AI především ve zvyšování naší produktivity, vývoji nových léků, vzdělávání a boji s klimatickou změnou. To, že AI by mohla v rámci školství narovnat podmínky a zlepšit přístup ke kvalitnímu vzdělání i pro chudé, pak zmiňoval Adam Cheyer. Ben Goertzel dokonce tvrdil, že příchod „super AGI“ přinese utopii, pokud jí naučíme být empatickou a soucitnou.
Ochrana dat v kontextu AI
Ze všech panelových diskuzí ohledně AI vyčnívala ta o AI v kontextu ochrany dat. Sean Hurley (Data Protection Commission) upozorňoval na to, že i AI se musí řídit GDPR, a že krmit AI jakýmikoliv osobními údaji je tedy nelegální. Jako konkrétní problematickou praxi uvedl to, že HR oddělení používají AI na procházení životopisů.
Barry Scannell (expert na právo v oblasti AI) mluvil především o ochraně duševního vlastnictví, kdy upozorňoval, že v USA obsah vytvořený AI nelze právně ochránit, protože dle amerického práva, stroje nemohou tvořit duševní vlastnictví. Naopak ve Velké Británii a Irsku může být tento obsah ochráněn. Jako zajímavý příklad toho, kam sahá duševní vlastnictví, uvedl, že pokud vytvoříme píseň, kde bude AI uměle vytvořený hlas Taylor Swift, tak ho klidně můžeme mít veřejný, protože na hlas neexistuje duševní vlastnictví. Naopak dle jeho názoru porušuje duševní vlastnictví to, že se AI učí na datech, které takto chráněny jsou (např. v písních Taylor Swift). Zároveň nedoporučoval firmám v dnešní době využívat v programech kódy vygenerované AI, protože mohou být z pohledu duševního vlastnictví problematické. Novinářům pak vzkázal, že pokud za pomoci AI tvoří články, které následně předávají zaměstnavatelům bez toho, aniž by ti o tom věděli, tak pravděpodobně porušují své pracovní smlouvy.
Závěr
Na konferenci musím především ocenit, že i když nepatří k největším, tak dokáže přizvat širokou škálu řečníků, kteří patří ke špičkám ve svých oborech. Zejména panelové diskuze dokázaly přinést více úhlů pohledu na jednotlivá témata a správným zvolením moderátorů přímo z oboru se zamezilo nerelevantním dotazům. Z konference si odnáším především ucelenější přehled v tom, co si o problematice AI myslí odborníci s touto specializací a také se mi upravil názor na potřebu její regulace.
Autor textu: Ondřej Šeliga, Digital Performance Group Head, Omnicom Media Group