ИИ Прогресс

Опасная зависимость: угроза ИИ пришла, откуда не ждали

https://tinyurl.com/t-invariant/2023/08/dangerous_dependency/
YouTube player

Угроза искус­ствен­но­го интел­лек­та при­шла отту­да, отку­да никто не ждал. GPT-4 вне­зап­но оту­пел, хотя и толь­ко на неко­то­рых типах запро­сов. Этот пре­це­дент пока­зы­ва­ет рис­ки, воз­ни­ка­ю­щие при высо­кой зави­си­мо­сти от помо­щи ИИ, а так­же ука­зы­ва­ет новые воз­мож­но­сти для зло­упо­треб­ле­ний. Ко все­му это­му нуж­но быть готовыми.

Весной было мно­го сооб­ще­ний, как ИИ с лег­ко­стью про­хо­дит уни­вер­си­тет­ские экза­ме­ны. Программисты уже налов­чи­лись писать с его помо­щью кус­ки кода. Однако в нача­ле лета обна­ру­жи­лось, что на неко­то­рых зада­чах каче­ство отве­тов искус­ствен­но­го интел­лек­та рез­ко просело.

Первые жало­бы появи­лись еще в нача­ле июня на про­фес­си­о­наль­ных фору­мах. Через месяц их заме­ти­ла прес­са. А 18 июля на сер­ве­ре пре­прин­тов была выло­же­на ста­тья с изме­ре­ни­я­ми срав­ни­тель­ных пока­за­те­лей каче­ства отве­тов GPT-4 в мар­те и в июне. На неко­то­рых зада­чах доля пра­виль­ных отве­тов упа­ла с 97,6% до 2,4%. Наконец, в чет­верг 20 июля ком­па­ния-раз­ра­бот­чик (OpenAI) при­зна­ла в сво­ем чате, что такое дей­стви­тель­но име­ет место в послед­ней вер­сии GPT-4, хотя толь­ко на неко­то­рых зада­чах, а на осталь­ных пока­за­те­ли растут.

Снижение отдель­ных пока­за­те­лей ChatGPT-4 с мар­та по июнь 2023 года. Иллюстрация на базе изоб­ра­же­ния из ста­тьи https://arxiv.org/abs/2307.09009 содер­жит при­ме­ры задач, на кото­рых тести­ро­ва­лась нейросеть.

Тут надо, одна­ко, учи­ты­вать, что, хотя мощ­ные ней­ро­се­ти и явля­ют­ся пока пере­до­вой экс­пе­ри­мен­таль­ной тех­но­ло­ги­ей, доступ ко мно­гим из них уже актив­но про­да­ет­ся в каче­стве ком­мер­че­ско­го про­дук­та. В част­но­сти, ChatGPT-4 сто­ит $20 в месяц. Это зна­чит, что мно­гие кли­ен­ты будут пола­гать­ся на воз­мож­ность опти­ми­зи­ро­вать свои рабо­чие про­цес­сы с исполь­зо­ва­ни­ем ней­ро­се­тей. То есть ней­ро­се­тям фак­ти­че­ски деле­ги­ру­ет­ся часть опе­ра­ций по созда­нию ком­па­ни­я­ми их соб­ствен­ных про­дук­тов: помощь ИИ учи­ты­ва­ет­ся при оцен­ке тру­до­за­трат и сто­и­мо­сти производства.

Если же каче­ство рабо­ты ИИ под­вер­же­но непред­ска­зу­е­мым мно­го­крат­ным про­сад­кам, то пла­ни­ро­вать любой биз­нес с его исполь­зо­ва­ни­ем ста­но­вит­ся крайне рис­ко­ван­но. Фактически ока­зы­ва­ет­ся, что часть ком­пе­тен­ций ком­па­ний пере­да­ет­ся на аут­сор­синг искус­ствен­но­му интел­лек­ту на осно­ве одно­го лишь преж­не­го опы­та вза­и­мо­дей­ствия, безо вся­ких гаран­тий соот­вет­ствия каким-либо требованиям.

Нельзя ска­зать, что эта ситу­а­ция абсо­лют­но бес­пре­це­дент­ная. Довольно часто ока­зы­ва­ет­ся, что новая вер­сия зна­ко­мо­го про­грамм­но­го обес­пе­че­ния лиша­ет­ся каких-то важ­ных функ­ций, кото­рые под­дер­жи­ва­лись в ста­рых вер­си­ях. Например, при пере­хо­де от Windows 7 к Windows 8 из интер­фей­са про­па­ла кноп­ка «Пуск», к кото­рой все при­вык­ли. Это сни­зи­ло про­из­во­ди­тель­ность рабо­ты, и ее потом вер­ну­ли. А в Windows 11 нель­зя отка­зать­ся от объ­еди­не­ния кно­пок в пане­ли задач и опять мно­гие рабо­ты замед­ли­лись. Однако обнов­ле­ние ПО, уста­нов­лен­но­го на ком­пью­те­рах поль­зо­ва­те­лей — это хотя бы отча­сти кон­тро­ли­ру­е­мый процесс.

В слу­чае сер­вер­но­го ПО зави­си­мость от про­из­во­ла раз­ра­бот­чи­ков зна­чи­тель­но воз­рас­та­ет. Особенно серьез­ные про­бле­мы испы­ты­ва­ют про­грам­ми­сты. От них могут неожи­дан­но закрыть доступ к при­выч­ным про­грамм­ным интер­фей­сам (API) или потре­бо­вать пере­хо­да на новые стан­дар­ты. Но, по край­ней мере, у этих про­цес­сов обыч­но есть чет­кие даты и спе­ци­фи­ка­ции, а затра­ги­ва­ют они лишь немно­гих, кто к это­му готовы.

Нейросетевые сер­ви­сы наце­ле­ны на гораз­до более широ­кую ауди­то­рию и меня­ют­ся при этом почти непре­рыв­но и непред­ска­зу­е­мо. Даже их раз­ра­бот­чи­ки не могут зара­нее ска­зать, каче­ство реше­ния каких задач про­ся­дет при оче­ред­ном обнов­ле­нии или дообу­че­нии ИИ.

А еще на гори­зон­те мая­чит доволь­но опас­ная воз­мож­ность кон­тро­ли­ро­вать успех биз­не­сов, кото­рые пола­га­ют­ся на рабо­ту ней­ро­се­те­вых сер­ви­сов, через ком­па­нии, кото­рые эти сер­ви­сы предо­став­ля­ют. Нечто подоб­ное име­ет место сей­час в слу­чае поис­ко­вых сер­ви­сов и соц­се­тей. Они могут без пре­ду­пре­жде­ния пес­си­ми­зи­ро­вать одни источ­ни­ки инфор­ма­ции и уси­ли­вать про­дви­же­ние других.

Поисковики, напри­мер, с дав­них вре­мен объ­яс­ня­ют это борь­бой с поис­ко­вым спа­мом в инте­ре­сах боль­шин­ства поль­зо­ва­те­лей. То есть поис­ко­вые маши­ны по соб­ствен­ным и в общем слу­чае непуб­лич­ным кри­те­ри­ям опре­де­ля­ют, какие сай­ты искус­ствен­но мани­пу­ли­ру­ют поис­ко­вой выда­чей и пони­жа­ют их види­мость, а то и вовсе исклю­ча­ют из индек­са. Владелец сай­та дол­жен быть готов к тому, что одна­жды утром его инфор­ма­ци­он­ная пло­щад­ка, в про­дви­же­ние кото­рой он вло­жил­ся, вдруг пере­ста­нет обна­ру­жи­вать­ся боль­шин­ством потен­ци­аль­ных клиентов.

Нечто подоб­ное про­ис­хо­дит и в соци­аль­ных сетях, где в послед­ние годы отме­ча­ет­ся зна­чи­тель­ное уси­ле­ние цен­зу­ры. Опять же, это оправ­ды­ва­ет­ся инте­ре­са­ми поль­зо­ва­те­лей: борь­бой с дез­ин­фор­ма­ци­ей, непри­ем­ле­мым кон­тен­том, язы­ком враж­ды. Однако после при­об­ре­те­ния Твиттера Илон Маск пере­дал жур­на­ли­стам ряд внут­рен­них мате­ри­а­лов ком­па­нии, демон­стри­ру­ю­щих целе­на­прав­лен­ное вме­ша­тель­ство в рас­про­стра­не­ние инфор­ма­ции в соц­се­ти под поли­ти­че­ским дав­ле­ни­ем. Скандал вокруг «фай­лов Твиттера» еще раз пока­зал, что цен­зу­ра все­гда созда­ет поч­ву для поли­ти­че­ских злоупотреблений.

Тут важ­но отме­тить, что алго­рит­мы пес­си­ми­за­ции в поис­ко­ви­ках и выяв­ле­ние неже­ла­тель­но­го кон­тен­та в соц­се­тях ста­ли исполь­зо­вать эле­мен­ты искус­ствен­но­го интел­лек­та зна­чи­тель­но рань­ше мас­со­во­го бума ней­ро­се­тей. Опытные поль­зо­ва­те­ли уже успе­ли при­спо­со­бить­ся к ошиб­кам робо­тов-цен­зо­ров, напри­мер, к их непо­ни­ма­нию юмо­ра и кон­тек­ста и ста­ли писать так, что­бы обхо­дить цен­зу­ру. И все же, в слу­чае поис­ко­ви­ков и соц­се­тях мож­но гово­рить о целе­на­прав­лен­ном вме­ша­тель­стве и хотя бы о тео­ре­ти­че­ской воз­мож­но­сти кон­тро­ля над зло­упо­треб­ле­ни­я­ми. В слу­чае же мно­го­об­раз­ных ней­ро­се­те­вых сер­ви­сов любые неожи­дан­ные вари­а­ции надеж­но­сти и содер­жа­ния гене­ри­ру­е­мо­го кон­тен­та мож­но спи­сать на непред­ска­зу­е­мые (в самом деле) осо­бен­но­сти обу­че­ния. Общественный кон­троль над цен­зу­рой ста­но­вит­ся еще более сложным.

Чтобы ней­ро­се­те­вые сер­ви­сы ста­ло воз­мож­но исполь­зо­вать не в каче­стве эпи­зо­ди­че­ско­го под­спо­рья для мало­го биз­не­са, а суще­ствен­но шире в каче­стве кри­ти­че­ских эле­мен­тов биз­не­са более серьез­но­го, важ­но преду­смат­ри­вать меры без­опас­но­сти, защи­ща­ю­щие от таких эффектов.

Для нача­ла, если вы силь­но зави­си­те от уча­стия ИИ в реше­нии важ­ных задач, жела­тель­но исполь­зо­вать для это­го несколь­ких неза­ви­си­мых сер­ви­сов, кото­рые в основ­ных функ­ци­ях заме­ня­ют друг дру­га. И, более того, надо посто­ян­но прак­ти­ко­вать при­ме­не­ние всех этих сер­ви­сов, что­бы не про­па­дал эффект вклю­чен­но­сти. Иначе в момент воз­ник­но­ве­ния про­блем с одним сер­ви­сом вы може­те быть непри­ят­но удив­ле­ны, что резерв­ный сер­вис дав­но не соот­вет­ству­ет вашим потреб­но­стям. Крупным орга­ни­за­ци­ям вооб­ще сто­ит поду­мать о запус­ке ней­ро­се­тей на соб­ствен­ных вычис­ли­тель­ных мощ­но­стях. Это сде­ла­ет их в извест­ной мене неза­ви­си­мы­ми от обновлений.

А еще рабо­та пуб­лич­ных ней­ро­се­те­вых сер­ви­сов долж­на посто­ян­но под­вер­гать­ся неза­ви­си­мо­му мони­то­рин­гу, что­бы обще­ство свое­вре­мен­но узна­ло, если они ста­нут исполь­зо­вать­ся для мани­пу­ли­ро­ва­ния или про­сто поте­ря­ют какие-то спо­соб­но­сти, кото­ры­ми обла­да­ли ранее. Упомянутый в нача­ле ста­тьи пре­принт — это как раз про­об­раз необ­хо­ди­мых в буду­щем систем мони­то­рин­га сер­ви­сов на базе ИИ.

И, нако­нец, про­вай­де­рам ней­ро­сер­ви­сов надо ответ­ствен­но под­хо­дить к обнов­ле­нию сво­их про­дук­тов, учи­ты­вая, что по самой при­ро­де ней­ро­се­тей их обнов­ле­ние сопря­же­но с непред­ска­зу­е­мы­ми вари­а­ци­я­ми каче­ства рабо­ты. В част­но­сти, ком­па­ния OpenAI сооб­щи­ла в сво­ем бло­ге, что воз­мож­ность досту­па ста­рым вер­си­ям GPT-3.5 и GPT-4, кото­рую пред­по­ла­га­лось пре­кра­тить 13 сен­тяб­ря, теперь будет про­дле­на как мини­мум на 9 меся­цев — до 13 июня 2024 года.

Напоследок загля­нем немно­го в буду­щее, когда исполь­зо­ва­ние функ­ций ИИ ста­но­вит­ся неотъ­ем­ле­мой частью интел­лек­ту­аль­ной жиз­ни. Можно пред­по­ло­жить, что к тому вре­ме­ни это уже будет не толь­ко ком­пью­тер­ный сер­вис, как сей­час интер­нет с поис­ко­ви­ка­ми, но инстру­мент, зна­чи­тель­но уси­ли­ва­ю­щий когни­тив­ные функ­ции чело­ве­ка. И тогда неожи­дан­ный отказ в рабо­те таких систем может напря­мую вли­ять на лич­ност­ные харак­те­ри­сти­ки людей, вызы­вая про­бле­мы, чем-то подоб­ные амне­зии или демен­ции. Образ такой когни­тив­ной ава­рии мы с ней­ро­се­тью Midjourney сде­ла­ли иллю­стра­ци­ей к это­му мате­ри­а­лу и соот­вет­ству­ю­ще­му роли­ку на YouTube.

Текст: АЛЕКСАНДР СЕРГЕЕВ

  2.08.2023

, , ,