Preskočiť na obsah

Google chce byť operačným systémom vedy. Sťažuje sa na uzavreté údaje. Odborníci bijú na poplach

Google vytvára platformu, na ktorej umelá inteligencia nielen pomáha vedcom, ale postupne riadi celý výskumný cyklus od vzniku myšlienky až po laboratórne testy. „Chceme, aby vedci robili to isté, čo robia teraz, len lepšie,“ hovoria zástupcovia gigantu z Mountain View. Mnohí výskumníci však upozorňujú na riziká. Patrí medzi ne zaplavenie vedy nekvalitnými prácami alebo monopolizácia vedeckej diskusie zo strany veľkých technologických spoločností.Google chce automatizovať vedu. V projekte AI co-scientist má umelá inteligencia nielen navrhovať hypotézy, ale aj sama ich testovať a zdokonaľovať v takzvanom magickom cykle výskumu.Gigant sľubuje urýchlenie tempa vedeckého výskumu. Systém má však vážne obmedzenia, okrem iného je založený iba na verejne dostupných publikáciách.Kľúčovým cieľom spoločnosti je teraz presvedčiť výskumníkov, aby uľahčili prístup k vedeckým údajom.Odborníci varujú pred monopolizáciou vedy. Kritici poukazujú na to, že Google sa snaží vytvoriť globálnu výskumnú infraštruktúru – jednotnú platformu, cez ktorú bude prechádzať väčšina analýz a hypotéz.

„Magická slučka výskumu“ – tak o systéme AI co-scientist (anglický termín, ktorý znamená „vedecký spolupracovník AI“) vyvinutom spoločnosťou Google hovorí viceprezident spoločnosti Yossi Matias. Spoločnosť sa v budúcnosti snaží automatizovať výskumný proces. Umelá inteligencia bude nielen generovať hypotézy, ale ich aj sama testovať a zdokonaľovať.

AI má navrhovať hypotézy, testovať ich a vyvracať

Nástroj, ktorý Google predstavil v marci tohto roku, funguje na základe modelu umelej inteligencie Gemini, ktorý takisto vytvoril gigant z Mountain View. Je založený na takzvanom multiagentnom architektúre. Je to ako keby v rámci jedného tímu pracovalo niekoľko výskumníkov.

„Vytvárame znalostnú bázu pre každú vedeckú otázku, spájame ju s literatúrou, generujeme stovky tisíc nápadov a simulujeme vedecké debaty medzi agentmi umelej inteligencie,“ povedala Annalisa Pavloski, výskumníčka a spoluautorka nástroja, počas konferencie Research@, ktorú zorganizoval Google. Ide o stretnutie miestnych vedcov s výskumníkmi gigantu.

Podľa výskumníkov z Google, AI co-scientist v testoch objavil okrem iného molekuly, ktoré sú schopné zvrátiť fibrózu pečene, a poukázal na zlúčeniny, ktoré môžu byť použité na liečbu leukémie.

Výskumníci pracujúci v spoločnosti Google na AI co-scientist dúfajú, že vďaka umelej inteligencii výskumy, ktoré dnes trvajú roky, môžu v budúcnosti trvať len hodiny.

„Cieľom projektu AI co-scientist je urýchliť tempo vedeckých objavov. Chceme, aby vedci robili to, čo robia dnes, len lepšie,“ presviedčala Pavloški. Vyhlásila, že cieľom nie je nahradiť výskumníkov.

Profesor Petr Sankovsky, riaditeľ výskumného inštitútu IDEAS, verí, že umelá inteligencia urýchli výskum. Počas konferencie vyhlásil, že v prvom rade treba očakávať prelomové objavy vo fyzike, dosiahnuté s jej pomocou.

Dáta obmedzujú funkčnosť modelu

Ako však priznali samotní výskumníci z Google, vedecký pracovník AI má niekoľko závažných obmedzení. Po prvé, systém je založený na verejne dostupných vedeckých publikáciách, takzvanom otvorenom prístupe. Preto môže prehliadať kľúčové výskumy, ktoré sú dostupné len na základe platného predplatného, a jeho vedomosti sú neúplné. To môže tiež viesť k nesprávnym záverom. To je jeden z dôvodov, prečo sa zástupcovia Google už mnoho rokov snažia presvedčiť vedcov, aby spolupracovali. Potreba otvorenia vedeckých databáz bola hlavnou témou napríklad vystúpenia Niklasa Lundblada z Google DeepMind v roku 2024 na konferencii Impact v Poznani. Lundblad vtedy dostal hlavné pódium a počúvalo ho plné publikum.

Systém Google tiež nemá prístup k výsledkom neúspešných experimentov, ktoré sa zriedka publikujú ako výsledky vedeckých prác, ale majú kľúčový význam pre pochopenie toho, čo vo vede nefunguje. Bez týchto údajov môže systém preceňovať účinnosť niektorých hypotéz alebo smerov výskumu. O tom, ako poľský chemický startup Molecule One využíva negatívne výsledky, sme písali v článku „Amerika verí v poľský startup. Milion dolárov pre laboratórium s vlastnou továrňou na údaje“. Ako sme neoficiálne zistili, Google mal záujem ako o činnosť spoločnosti, tak aj o prístup k jej výsledkom práve kvôli databáze neúspešných experimentov.

Google tiež uznáva, že ich model má ťažkosti s interpretáciou vizuálnych údajov, ako sú grafy, tabuľky, mikroskopické obrázky alebo zložité súbory biologických údajov. To obmedzuje jej užitočnosť v experimentálnych vedách. Rovnako ako všetky veľké modely, aj tento model zdedil typické nedostatky LLM (z angl. Large Language Model, veľký jazykový model): môže mať halucinácie, opakovať chyby zdrojov, prejavovať zaujatosť alebo nekonzistentnosť v úvahách.

Sporné otázky týkajúce sa vedeckých objavov

Časť vedcov je skeptická voči myšlienkam giganta z Mountain View. V marci sa na portáli TechCrunch.com objavil dlhý článok, v ktorom boli zhrnuté pochybnosti. Jedna z nich spočívala v tom, že Google sa snaží automatizovať nie to, čo vedci skutočne potrebujú.

Lana Sinapainen, výskumníčka umelej inteligencie v Sony Computer Science Laboratories v Japonsku, citovaná portálom, priznala, že nástroje ako AI Co-Scientist by mohli automatizovať sumarizáciu nových vedeckých publikácií alebo formátovanie dokumentov v súlade s požiadavkami žiadosti o grant. Ale nie podstatu vedeckej práce, t. j. formulovanie výskumných hypotéz.

Odvetvová služba tiež pripomenula, že Google už skôr oznámil prelomy porovnateľné s vedeckým asistentom AI. V roku 2020 sa gigant chválil, že jeho softvér na detekciu rakoviny prsníka dosiahol lepšie výsledky ako ľudskí radiológovia. Medzitým sa s týmito chválenkami stretli vedci z Harvardu a Stanfordu. V časopise Nature uverejnili článok, v ktorom poukázali na chýbajúci podrobný popis výskumnej metódy. Podobná situácia sa zopakovala o tri roky neskôr, keď spoločnosť oznámila, že vďaka jednému zo svojich systémov – GNoME – bolo syntetizovaných približne 40 „nových materiálov“. Externá analýza ukázala, že žiaden z týchto materiálov nebol v skutočnosti úplne nový.

Google chce byť operačným systémom vedy. Sťažuje sa na uzavreté údaje. Odborníci bijú na poplach

Závisí ďalší osud vedeckého výskumu od Google?

A to ešte nie je koniec kritiky. Poskytnutím prístupu k AI co-scientist Google deklaruje „demokratizáciu výskumu“. V praxi to znamená vytvorenie globálnej výskumnej platformy, cez ktorú bude prechádzať väčšina analýz a hypotéz.

Už dnes sa výskumníci po celom svete obávajú monopolizácie vedy veľkými korporáciami. Tech Policy Press upozorňuje na to, že Google kontroluje výskum v oblasti umelej inteligencie tým, že financuje programy doktorandských štipendií a priťahuje vedcov, aby pracovali v jeho internom výskumnom laboratóriu umelej inteligencie DeepMind.

Článok uverejnený v Oxford Academic zase poukazuje na to, že monopol Google a ďalších technologických gigantov nad tromi kľúčovými zložkami umelej inteligencie – výpočtovým výkonom, údajmi a kapitálom – vytvára „výpočtovú priepasť“ medzi veľkými technologickými spoločnosťami a tradičnými výskumnými centrami. To vedie k rastúcej koncentrácii výskumu v oblasti umelej inteligencie v rukách niekoľkých spoločností a popredných univerzít.

Výskumníci konštatujú: „Vzhľadom na rastúce výpočtové a dátové požiadavky pri výučbe veľkých jazykových modelov bude konsolidácia výskumných kapacít v Big Tech a podporovaných univerzitách pravdepodobne pokračovať.“ Táto dvojitá úloha ako spoluautorov aj príjemcov vedeckej práce v oblasti umelej inteligencie vytvára potenciálne konflikty záujmov a vyvoláva etické obavy v súvislosti s výskumom v oblasti umelej inteligencie.

Konflikt záujmov medzi výskumníkom a výskumným subjektom

Príklad? Prípad Timnit Gebru. Bola vedúcou tímu pre etiku umelej inteligencie v spoločnosti Google. V roku 2020 bola prepustená po uverejnení vedeckej práce, v ktorej kritizovala veľké jazykové modely, najmä za ich zaujatosť, spotrebu energie a riziko reprodukcie sociálnych predsudkov. Jej odchod vyvolal medzinárodný škandál a stal sa symbolom konfliktu medzi vedcami zaoberajúcimi sa etikou umelej inteligencie a technologickými korporáciami, ktoré sa snažia kontrolovať naratív okolo svojho výskumu.

Ramon Viss, emeritný profesor teoretickej jadrovej fyziky na Kráľovskom technologickom inštitúte v Štokholme, varuje v časopise Science Business: „Z praktického hľadiska prístup k vedeckej literatúre nikdy nebude otázkou autorských práv, ale otázkou technických možností – softvérových nástrojov, databáz a analytiky. V tomto prípade majú výhodu veľkí vývojári, ako sú Microsoft a Apple, s ich obrovskými rozpočtami na výskum a vývoj a globálnou dominanciou na trhu.“

Weiss predpovedá: „Môžeme si byť istí, že po rastúcich súkromných platformách umelej inteligencie prídu meta-vedomosti a meta-veda. Krok za krokom sa tieto platformy budú presadzovať v medicíne, materiálových vedách a nakoniec v celom svete prírodných a humanitných vied. Stojíme na prahu vedeckej moci, ktorá patrí jednej, dvom alebo trom spoločnostiam a možno aj niektorým vládam.“

Už dnes došlo k významnej zmene paradigmy. V tímoch Google pracujú alebo pracovali laureáti piatich Nobelových cien v oblasti biológie a fyziky.