ИИ Позиция

Страх стохастического попугая

https://tinyurl.com/t-invariant/2023/03/strah-stohasticheskogo-popugaya/

Письмо о при­оста­нов­ке обу­че­ния круп­ных ИИ моде­лей появи­лось в откры­том досту­пе в ночь на 29 мар­та, но такие пред­ло­же­ния уже не раз зву­ча­ли от раз­ных людей осо­бен­но в послед­ние меся­цы, с момен­та выхо­да ChatGPT в нояб­ре 2022. Идея не нова, ее выска­зы­ва­ют регу­ляр­но, а Гари Маркус, извест­ный кри­тик боль­ших язы­ко­вых моде­лей (LLMs), чуть ли не через день твер­дит о том, что «Карфаген дол­жен быть раз­ру­шен». И уж, конеч­но, он под­пи­сал пись­мо в чис­ле первых.

Среди под­пи­сан­тов есть гром­кие име­на, хотя и не так мно­го, есть серьез­ные экс­пер­ты в сво­их обла­стях, но сам при­зыв к мора­то­рию, как и его обос­но­ва­ние, вряд ли убе­дят тех, кому пись­мо адре­со­ва­но — руко­во­ди­те­лей ИИ лабораторий.

В чем сомни­тель­ность этой идеи? В том, что оста­нов­ка рабо­ты не реша­ет ни одной про­бле­мы. Да, все соглас­ны с тем, что LLMs непро­зрач­ны, нена­деж­ны, склон­ны к гал­лю­ци­на­ци­ям, и мы не пони­ма­ем со всей ясно­стью, как они дела­ют выво­ды. Мы так­же не зна­ем, какие свой­ства появят­ся у моде­лей более мощ­ных, чем GPT-4. Однако это­го и нель­зя выяс­нить, исхо­дя из общих сооб­ра­же­ний и экс­пе­ри­мен­ти­руя с более мел­ки­ми моде­ля­ми хоть пол­го­да, хоть доль­ше. В этом важ­ная чер­та LLMs: их пове­де­ние нетри­ви­аль­но зави­сит от раз­ме­ра моде­ли, от каче­ства и коли­че­ства обу­ча­ю­щих дан­ных и от мето­дов обучения.

Только рабо­та с ИИ моде­ля­ми поз­во­лит хоть что-то про них понять, уви­деть рис­ки и про­те­сти­ро­вать воз­мож­но­сти. По мет­ко­му заме­ча­нию фило­со­фа Артема Беседина «авто­ры это­го пись­ма пред­ла­га­ют нам учить­ся пла­вать, не вхо­дя в воду». Увы, так не получится.

Далее, как к мора­то­рию отне­сет­ся, напри­мер, Китай? Судя по дохо­дя­щим отту­да ново­стям, КПК дела­ет силь­ную став­ку на раз­ви­тие искус­ствен­но­го интел­лек­та. Официально цель Китая — стать миро­вым лиде­ром в этой обла­сти к 2030 году. Сейчас они в роли дого­ня­ю­щих, и тор­мо­же­ние про­ек­тов у кон­ку­рен­тов из США будет отлич­ным подар­ком китай­ским иссле­до­ва­те­лям. Сами они оста­но­вят­ся вряд ли.

Впрочем, едва ли возь­мет пау­зу и OpenAI, ком­па­ния, создав­шая GPT-4. Уже сей­час идет обу­че­ние сле­ду­ю­щей вер­сии, и на осень анон­си­ро­ва­но появ­ле­ние GPT-4.5, а затем и GPT-5. Учитывая, что Microsoft инве­сти­ру­ет в эти моде­ли $10 млрд, оста­но­вок не будет. Не под­дер­жал пись­мо и Ян Лекун, вице-пре­зи­дент Meta. Пожалуй, авто­ры пись­ма силь­но запоз­да­ли: джинн уже выпущен.

Кроме того, угро­зы ИИ обо­зна­че­ны доволь­но раз­мы­то, что­бы испу­гать­ся все­рьез. На фоне отгре­мев­ше­го кови­да и нынеш­них тра­ге­дий, кото­рые мы наблю­да­ем в пря­мом эфи­ре, риск раз­рас­та­ния фей­ков и гря­ду­щие изме­не­ния на рын­ке тру­да не впе­чат­ля­ют настоль­ко, что­бы “бро­сить всё”. А реа­ли­стич­ных сце­на­ри­ев, как LLMs пора­бо­тят чело­ве­че­ство, не про­смат­ри­ва­ет­ся. И хотя часть иссле­до­ва­те­лей нахо­дит в GPT-4 «искры обще­го интел­лек­та», дру­гие назы­ва­ют язы­ко­вые моде­ли «сто­ха­сти­че­ски­ми попу­га­я­ми» 🦜, отка­зы­вая им даже в зачат­ке мыс­ли. И тогда сто­ит ли боять­ся попу­гая, пусть и говорящего?

Вопрос об уме LLMs далек от раз­ре­ше­ния, и здесь как раз нуж­ны экс­пе­ри­мен­ты. Но все соглас­ны с тем, что это мощ­ный инстру­мент, кото­рый может быть очень поле­зен. Он рас­ши­ря­ет наши воз­мож­но­сти, а отказ от них тоже име­ет цену. Эти воз­мож­но­сти впе­чат­ля­ют, и в появ­ле­нии мани­фе­стов мы видим типич­ный «шок буду­ще­го» в тер­ми­нах социо­ло­га Элвина Тоффлера, кото­рый писал о пси­хо­ло­ги­че­ских эффек­тах стре­ми­тель­но­го раз­ви­тия тех­но­ло­гий еще в 1960-х.
Модели уж слиш­ком быст­ро апгрей­дят­ся и «умне­ют» на гла­зах. Предел роста их интел­лек­та не ясен, это и пуга­ет людей с бога­тым вооб­ра­же­ни­ем. Однако мора­то­рий и запре­ты дадут лишь пере­дыш­ку нашей пси­хи­ке, но не помо­гут устра­нить буду­щие рис­ки. Скажем, в био­ло­гии часть гипо­тез мож­но про­ве­рить на живот­ных или кле­точ­ных куль­ту­рах. В обла­сти ИИ ана­ло­гич­ной заме­ны боль­шим моде­лям нет, их пове­де­ние уникально.

В более общем смыс­ле мы созда­ем сверх­слож­ный объ­ект ново­го типа, для кото­ро­го у нас нет гото­вых тео­рий. Понимание его свойств мож­но добыть толь­ко во вза­и­мо­дей­ствии с ним. Оттого при­зыв обсуж­дать клю­че­вые про­бле­мы ИИ в пау­зе, без иссле­до­ва­ний, зву­чит как уто­пия. Это все не отме­ня­ет, конеч­но, необ­хо­ди­мо­сти все­рьез отне­стись к вопро­сам надеж­но­сти, про­зрач­но­сти, без­опас­но­сти LLMs, их обу­че­ния и регу­ли­ро­ва­ния, но пере­рыв в экс­пе­ри­мен­тах на пол­го­да вряд ли при­бли­зит к ответам.

Текст: ДЕНИС ТУЛИНОВ, автор теле­грам-кана­ла «Блуждающий нерв»

Иллюстрация к тек­сту сге­не­ри­ро­ва­на ней­ро­се­тью Midjourney.

  30.03.2023