Umělá inteligence, neasi. zdroj: Pixabay

Zdroj obrázku:

Současná strojová učení nepředstavují existenční hrozbu

TLDR: Velké jazykové modely se podle testů neumějí naučit diametrálně odlišné schopnosti, kterými by nás samy od sebe ohrozily. Neznamená to, že je nemohou zneužit lidé – nebo že podobné schopnosti nebudou umět budoucí AIčka. Studie tuna.

Monstra pod postelí jsou sice děsivá, ale v posledních dvou letech to začalo vypadat, že se haranti budoucnosti budou pod postel dívat, jestli se tu neschovává ChatGPT! Pokud i vy máte obavy z (dnešního) AIčka, nesu jednu dobrou zprávu. Podle vědátorů z Bathu se zdá, že velké jazykové modely (LLM), jako je ChatGPT, nejsou schopny samostatného učení nebo získávání nových dovedností. Což dle nich znamená, že pro lidstvo nepředstavují existenční hrozbu.

Přeceňovaná hrozba?

Jednou z obecných obav stran umělé inteligence je riziko, že se sama od sebe může začít chovat jako masový vrahoun – a co hůře, osvojí si k tomu i nové schopnosti. Není to ani tak scénář „Terminátor“, jako spíše scénář „Avengers: Age of Ultron“. Reálně se vědátoři bojí, že když do dostatečně schopného AIčka zadáte, aby vymyslelo světový mír… Může přijít třeba s nápadem, že nejefektivnější cestou k němu je vyhubení člověka.

Studie, ještě teplá ze společné trouby University of Bath a Technické univerzity v německém Darmstadtu, však došla k závěru, že současná AIčka zůstávají ze své podstaty kontrolovatelná, předvídatelná a bezpečná. Byť vynikat v plnění instrukcí (třeba přeformulování výstupů vědecké práce…) a vytvářet sofistikovaný jazyk, nemohou si osvojit zbrusu nové dovednosti (třeba hacknutí ramp mezikontinentálních balistických střel) bez explicitních instrukcí.

To podle týmu pod vedením profesorky Iryny Gurevych znamená, že nepředstavují riziko, že by si samy rozvíjely komplexní rozumové schopnosti.

Do nitra AI

Vědátoři to testovali na schopnosti velkých jazykových modelů plnit úkoly, se kterými se nikdy předtím nesetkali, tzv. emergentní schopnosti. Potenciální úspěch modelů v těchto úlohách byl způsoben známým procesem učení se v kontextu. AIčka při něm využívají příklady uvedené v rámci konverzace k vytváření vhodných odpovědí.

Jenže velké jazykové modely mají v tomto ohledu určitý strop. Tisíce experimentů ukázaly, že schopnost sledovat instrukce + omezení paměti + zaměření na jazyk můžou v kombinaci vysvětlit jejich vlastnosti učení se v kontextu…

Zdroj: TriStar/Channel 4

V zásadě tak vědátoři došli k tomu, že uvnitř ChatGPT se neschovávají nějaké nové, potenciálně rizikovější schopnosti. Což vyvrátilo obavy, že by větší modely mohly získat nebezpečné, nepředvídatelné vlastnosti!

Skokový vývoj

Možná to vypadá, jakoby autoři neměli páru, co přesně se vlastně uvnitř AIčka ukrývá – ale to jenom proto, že přesně tak tomu je! Lidé samozřejmě ovlivňují, jak se strojová učení strojově učí na mnoha různých frontách (proto umí dnešní ChatGPT víc než náhodný chatbot v roce 2001), ale vnitřní pochody AIčka budou vždycky trochu neznámé. Protože jsme je nenaprogramovali, ale naučili se to samy.

To také nicméně znamená, že nynější studie skutečně řeší jenom velké jazykové modely jako ChatGPT. Její optimistický závěr nijak neznamená, že možná budoucí AIčka na jiné technologii nemusejí představovat vyšší riziko. A ostatně ani to neznamená, že určité riziko nemají již dnešní AIčka – třeba pro generování falešných zpráv je i jejich značný. To je však již riziko, které souvisí s jejich lidskými uživateli, nikoliv něco, co se AIčka naučí sama od sebe.

Pod vaši postel se tak opět mohou nastěhovat stará dobrá strašidla – a vzhledem k tomu, že vývoj AIčka jde kupředu spíše skokově, není jasné, jestli je odtud mašiny vystrnadí za pár let, dekád nebo až staletí!

[Ladislav Loukota]

Vědátor vzniká v dílně spolku studentů a popularizátorů vědy UP Crowd za podpory MUDRstart, který tvoří přípravné testy pro studenty vysokých škol. Krom různých autorů projekt jako šéfredaktor vede Ladislav Loukota – jeho kontaktní mail je [email protected]

Reklama

Reklama

Copyright © 2025 VĚDÁTOR. Všechna práva vyhrazena.
Copyright © 2025 VĚDÁTOR. Všechna práva vyhrazena.