ИИ Информатика

Страх и трепет: зачем лидеры ИИ пугают человечество?

https://tinyurl.com/t-invariant/2023/06/strah-i-trepet-zachem-lidery-ii-pugayut-chelovechestvo/

Лидеры раз­ра­бот­ки искус­ствен­но­го интел­лек­та срав­ни­ва­ют ИИ с пан­де­ми­ей и ядер­ной вой­ной. Они искренне оши­ба­ют­ся или им это выгодно?

30 мая Центр без­опас­но­сти искус­ствен­но­го интел­лек­та (Center for AI safety) опуб­ли­ко­вал откры­тое пись­мо. Оно состо­ит из одно­го пред­ло­же­ния. Вот рус­ский пере­вод его пол­но­го тек­ста: «Снижение рис­ка исчез­но­ве­ния чело­ве­че­ства из-за искус­ствен­но­го интел­лек­та долж­но стать гло­баль­ным при­о­ри­те­том наря­ду с дру­ги­ми рис­ка­ми, таки­ми как пан­де­мии и ядер­ная вой­на». Письмо уже под­пи­са­ли почти все лиде­ры ИИ. (За неко­то­ры­ми важ­ны­ми исклю­че­ни­я­ми, напри­мер, его не под­пи­сал один из отцов совре­мен­но­го ИИ Ян Лекун). Неужели все так опас­но и ИИ дей­стви­тель­но мож­но срав­нить с таки­ми угро­за­ми как пан­де­мия и ядер­ная война?

Дивный новый мир

Началось все 14 мар­та, когда ком­па­ния OpenAI выпу­сти­ла при­ло­же­ние ChatGPT 4. Как вид­но по номе­ру вер­сии уже были и 2, и 3, и 3.5 (это вер­сия вышла в нояб­ре 2022 года). Но как-то не было ни такой пани­ки, ни тако­го хай­па. А теперь, не успел народ еще как сле­ду­ет пою­зать ChatGPT 4 (неде­ля все­го про­шла), как 22 мар­та Илон Маск сото­ва­ри­щи на сай­те Института буду­ще­го жиз­ни запу­стил откры­тое пись­мо, где солид­ные люди при­зва­ли оста­но­вить раз­ра­бот­ки Больших Языковых Моделей (LLM), вот таких, как GPT-4.

Дальше все пошло по нарас­та­ю­щей. 11 мая Евросоюз при­нял AI Act, про­то­тип зако­на, регу­ли­ру­ю­ще­го и огра­ни­чи­ва­ю­ще­го исполь­зо­ва­ние ИИ. На сам­ми­те G7 тоже обсуж­да­ли ИИ. Лидеры ИИ ста­ли попу­ляр­ны, как рок-звез­ды. Сэма Альтмана (CEO OpenAI) ста­ли узна­вать в лицо. Его (и дру­гих раз­ра­бот­чи­ков ИИ и пред­ста­ви­те­лей круп­ней­ших IT-ком­па­ний) позва­ли в Белый дом на встре­чу с вице-пре­зи­ден­том. Потом Альтман высту­пал в Сенате, ска­зал, что он отправ­ля­ет­ся в турне по горо­дам и стра­нам, что­бы объ­яс­нять, что такое ИИ и чем он опасен.

Весь послед­ний месяц Альтман непре­рыв­но дает интер­вью и всю­ду гово­рит, что ИИ надо регу­ли­ро­вать, луч­ше на меж­ду­на­род­ном уровне, что нуж­но учре­дить что-то вро­де МАГАТЭ толь­ко не про ядер­ную энер­гию, а про ИИ. (Письмо, с кото­ро­го я начал, Альтман под­пи­сал сре­ди пер­вых.) 22 мая Альтман и еще два веду­щих сотруд­ни­ка и соос­но­ва­те­ля OpenAI опуб­ли­ко­ва­ли на сай­те ком­па­нии колон­ку, где они пишут, что через 10 лет ИИ пре­взой­дет чело­ве­ка в боль­шин­стве обла­стей зна­ния. Это будет уже не про­сто ИИ и даже не AGI (так обыч­но назы­ва­ют ИИ, срав­ни­мый по воз­мож­но­стям с чело­ве­че­ским разу­мом), а пря­мо superintelligence — сверхразум.

6 июня Сэм Альтман дое­хал до Абу-Даби, где при­нял уча­стие в оче­ред­ной кон­фе­рен­ции, посвя­щен­ной кон­тро­лю ИИ. Конференцию открыл Эндрю Джексон. Он свя­зан с ком­па­ни­ей Group 42 — доч­кой ком­па­нии DarkMatter. DarkMatter в пол­ном соот­вет­ствии с назва­ни­ем ком­па­ния доволь­но «тем­ная» и по целям, и по мето­дам. Фактически все ее зака­зы посту­па­ют от не само­го демо­кра­ти­че­ско­го пра­ви­тель­ства ОАЭ. За рабо­той DarkMatter крайне заин­те­ре­со­ван­но сле­дит ЦРУ. DarkMatter подо­зре­ва­ют в элек­трон­ной слеж­ке и взло­мах. Компания нани­ма­ет на рабо­ту за хоро­шие день­ги быв­ших сотруд­ни­ков ЦРУ и АНБ (Агентство наци­о­наль­ной без­опас­но­сти США) и даже, что уж совсем неожи­дан­но для араб­ской стра­ны, изра­иль­ских спе­ци­а­ли­стов. AP при­во­дит сло­ва Эндрю Джексона: «Мы — поли­ти­че­ская сила, и мы будет играть цен­траль­ную роль в регу­ли­ро­ва­нии ИИ».  «Мы» это кто? DarkMatter? Правительство ОАЭ? Ну, а поче­му нет? Если созда­ет­ся меж­ду­на­род­ный кон­тро­ли­ру­ю­щий орган, что-то вро­де МАГАТЭ, зна­чит надо сотруд­ни­чать и делить­ся инфор­ма­ци­ей в том чис­ле и с DarkMatter. Такие дела. Вот толь­ко кажет­ся, что Альтман искал дру­гих союзников.

Возникает несколь­ко вопросов.

Откуда у разработчиков ИИ такое желание упасть в объятия государства?

Чем доль­ше про­дер­жит­ся хайп, тем луч­ше для раз­ра­бот­чи­ков ИИ. У ком­па­ний и тех­но­ло­гий на вер­шине хай­па никто (но глав­ное акци­о­не­ры) не спра­ши­ва­ет, чем они зани­ма­ют­ся, и когда будет отда­ча. А на сего­дня отда­ча неоче­вид­на. Стоимость запро­са ChatGPT по раз­ным оцен­кам сто­ит что-то око­ло 30-40 цен­тов. Это в 500-1000 раз боль­ше, чем у стан­дарт­но­го запро­са Google. Это сто­ит папа­ше Дорсету, то бишь ком­па­нии Microsoft (глав­ный инве­стор OpenAI), что-то око­ло мил­ли­о­на в день. Чем боль­ше запро­сов, тем боль­ше пря­мые убыт­ки. Чем боль­ше запро­сов, тем выше долж­на быть мощ­ность дата-цен­тров, а это очень доро­гие чипы NVIDIA. Но Microsoft не была бы собой, если бы не счи­та­ла день­ги. Есть раз­ные вари­ан­ты, как моне­ти­зи­ро­вать хайп от раз­ра­бот­ки соб­ствен­ных чипов до актив­но­го зара­бот­ка на облач­ных сервисах.

Сэм Альтман гово­рит, что OpenAI — самый «инве­сто­ем­кий» стар­тап в исто­рии. Ему нуж­но на пер­вое вре­мя 100 мил­ли­ар­дов (вы не ослы­ша­лись — мил­ли­ар­дов, а не мил­ли­о­нов). Где их взять? Государство — очень хоро­ший донор. Пусть оно вло­жит­ся по-круп­но­му в ИИ, но не во вся­кое абы какое, а в «без­опас­ное». Мы все очень любим без­опас­ность и гото­вы ее опла­чи­вать. Пока аме­ри­кан­ское пра­ви­тель­ство захо­дит в отрасль со скром­ны­ми 140 мил­ли­о­на­ми. Но это пока.

Сэм Альтман гово­рит: те ком­па­нии, кото­рые не будут исполь­зо­вать ИИ — про­иг­ра­ют. И ком­па­нии боят­ся опоз­дать и начи­на­ют ИИ исполь­зо­вать, не очень даже пони­мая, что они дела­ют и зачем им это надо. В резуль­та­те рас­тут цены на облач­ные услу­ги. Например, на услу­ги Microsoft Azure. Как толь­ко хайп спа­дет, упа­дут цены на обла­ка. Запросы к ChatGPT ста­нут рути­ной, но они не ста­нут в 1000 раз дешев­ле. Услуги Azure поде­ше­ве­ют. Это кри­зис. Наверно, не такой кру­той, как взрыв дотко­мов в 2000 году, но, как мини­мум, такой, как кри­зис Метавселенных. Мы еще пом­ним, что это такое?
Метавселенные — это неза­кон­но­рож­ден­ное дитя пан­де­мии. Локдауны сде­ла­ли людей, не то что невы­езд­ны­ми, а даже невы­ход­ны­ми. А чело­ве­ку нужен чело­век. И зума ему мало. Пандемия закон­чи­лась. Люди вышли из ком­на­ты. Метавселенные закон­чи­лись. По край­ней мере пока.

Чтобы тех­но­ло­гия тако­го уров­ня, как опи­сы­ва­ют ИИ его созда­те­ли, выстре­ли­ла, а потом еще и не упа­ла, она долж­на отве­чать какой-то базо­вой потреб­но­сти чело­ве­ка. Мобильники сде­ла­ли людей бли­же. Соцсети — еще бли­же. В резуль­та­те теле­фо­ни­за­ция Африки про­шла бук­валь­но на ура в какие-то крат­чай­шие сро­ки. Электричество поз­во­ли­ло пере­да­вать энер­гию туда, где она нуж­на. Джеймс Клерк Максвелл рас­пла­тил­ся за всю фун­да­мен­таль­ную нау­ку на тыся­чу лет впе­ред. Он изме­нил нашу жизнь.

Какой базо­вой потреб­но­сти чело­ве­ка отве­ча­ет искус­ствен­ный интел­лект? Разработчики отве­ча­ют: ИИ изме­нит все. Он отме­нит бед­ность, решит про­бле­мы с кли­ма­том, с энер­ги­ей, со здра­во­охра­не­ни­ем и будет всем сча­стье (напри­мер, в этом интер­вью все это рас­пи­са­но очень живо). Это, мяг­ко гово­ря, немно­го некон­крет­но. Как-то это силь­но напо­ми­на­ет то ли фило­соф­ский камень, то ли элик­сир бес­смер­тия. В это труд­но пове­рить по про­стей­шей при­чине: чело­ве­че­ство за всю свою исто­рию ни с чем таким не стал­ки­ва­лось. В общем, пока плюш­ки выгля­дят не очень убедительно.

Одну базо­вую потреб­ность чело­ве­ка, кото­рую уже помо­га­ет решать ИИ, я знаю, но вряд ли она так уж силь­но инте­ре­су­ет народ­ные мас­сы: это потреб­ность позна­ния. ИИ и, в первую оче­редь, мно­го­слой­ные ней­ро­се­ти дали дру­гой спо­соб обра­бот­ки дан­ных, гораз­до более близ­кий к мыш­ле­нию чело­ве­ка, чем тра­ди­ци­он­ное про­грам­ми­ро­ва­ние. Но это не потреб­ность обще­ния или необ­хо­ди­мость теп­ла. Человек сна­ча­ла дол­жен жить, а потом у неко­то­рых может воз­ник­нуть жела­ние поду­мать. На досу­ге. Аристотель вооб­ще гово­рит, что нау­ка — дитя досу­га. И это спра­вед­ли­во. Наука тре­бу­ет сво­бо­ды сознания.

Если непо­нят­но, что ИИ даст, тогда давай­те будем всем рас­ска­зы­вать, что он отни­мет (конеч­но, если его непра­виль­но исполь­зо­вать и не дать 100 мил­ли­ар­дов денег OpenAI, кото­рый точ­но зна­ет, как пра­виль­но). Тогда все про­сто: если с ИИ не дого­во­ри­тесь, будет пан­де­мия напо­по­лам с ядер­ной вой­ной. И вот тут-то, конеч­но, надо звать регу­ля­то­ров. Не толь­ко пото­му, что они дадут день­ги, но и пото­му, что раз­де­лят ответ­ствен­ность, если что-то пой­дет не так. А раз­ра­бот­чи­ки будут охать и ахать: ну как же не усле­ди­ли, но мы же пре­ду­пре­жда­ли. Все-таки руки у них немно­го дро­жат. По-настоящему.

Какие опасности ИИ видны прямо сегодня?

Миллионы без­ра­бот­ных? Единственное на сего­дня мас­со­вое при­ло­же­ние ИИ — это ChatGPT. Единственная отрасль, где ChatGPT исполь­зу­ет­ся все­рьез — это про­грам­ми­ро­ва­ние. Программисты нача­ли рабо­тать еще с ChatGPT 3. Это 2022 год. По нынеш­ним мер­кам — это дав­но. (Я имею в виду не тех, кто дела­ет инстру­мент, они-то рабо­та­ют над ИИ лет 70 уже, а тех, кто им поль­зу­ет­ся). Что-то я не слы­шал о мас­со­вых сокра­ще­ни­ях в IT. Наоборот, вакан­сий — море. Самый скром­ный нови­чок с базо­вы­ми зна­ни­я­ми Python: его с рука­ми ото­рвут. Так что здесь пока ника­ких сокра­ще­ний не пред­ви­дит­ся. Хотя авто­ма­ти­за­ция рабо­чих мест, о кото­рой пишут экс­пер­ты Goldman Sachs, оче­вид­на, и эффек­тив­ность рабо­ты про­грам­ми­ста рас­тет на гла­зах. Но вот реак­ция био­ин­фор­ма­ти­ка Ксиджина Ге, кото­рый вни­ма­тель­но раз­би­рал­ся с воз­мож­но­стя­ми ChatGPT имен­но в напи­са­нии кода. Ге гово­рит доволь­но отрезв­ля­ю­щие сло­ва: отно­сить­ся к это­му ИИ надо как к ста­же­ру — тру­до­лю­би­во­му, жела­ю­ще­му всем уго­дить, но неопыт­но­му и часто дела­ю­ще­му ошибки.

Что ИИ дал про­грам­ми­ро­ва­нию? Надежду. Надежду, что сбу­дет­ся меч­та, кото­рой уже 70 лет. Алгоритмы на осно­ве глу­бо­ко­го обу­че­ния могут рабо­тать хоро­шо, а могут — пло­хо. Но и пло­хо они все рав­но будут рабо­тать. А клас­си­че­ская про­грам­ма либо рабо­та­ет, либо — нет. Она слиш­ком хруп­кая. На такой тех­но­ло­гии мы постро­и­ли совре­мен­ную циви­ли­за­цию. Как гово­рил Джеральд Вейнберг, если бы стро­и­те­ли стро­и­ли дома так, как про­грам­ми­сты пишут про­грам­мы, пер­вый зале­тев­ший дятел раз­ру­шил бы циви­ли­за­цию. Вейнберг толь­ко не уточ­нил, что про­грам­ми­сты не вино­ва­ты. Они сде­ла­ли все, что мог­ли. Просто это­го мало. Нужно что-то более надеж­ное. Вот ИИ как раз это обе­ща­ет. Почему в резуль­та­те долж­но исчез­нуть человечество?

Дипфейки? Это по-насто­я­ще­му серьез­но. Даже не пото­му что все пото­нет в фей­ках, как гово­рит один из отцов-осно­ва­те­лей совре­мен­но­го ИИ Джеффри Хинтон, а пото­му что уже сего­дня мы все друж­но это­го боим­ся. Вот страх — очень пло­хой помощник.

Вот ска­жи­те, поло­жа руку на серд­це, вы прав­да вери­те все­му, что пишут на забо… то бишь в интер­не­те? Нет, ведь. Ни тому, что напи­са­но, ни тому, что нари­со­ва­но, ни тому, что сня­то на видео. Мы верим не тому, что слы­шим, а тому, кто гово­рит. Например, сосе­ду дяде Коле (или сво­ей френд-лен­те). Как гово­ри­ла мис­сис Хадсон: «Так пишет Times». Или Reuters, или AFP, или Nature, или Science, или… Они что, не оши­ба­ют­ся? Еще как оши­ба­ют­ся. Они нико­гда не врут? Бывает и такое. Но цена ошиб­ки высо­кая. Если все эти брен­ды риску­ют репу­та­ци­ей, то дядя Коля рис­ку­ет полу­чить по ску­ле: тоже, в целом, чув­стви­тель­ная цена за фейк. То есть, это будет инфор­ма­ция, кото­рую креп­ко потряс­ли и пока­ча­ли. Ее мож­но рас­смат­ри­вать все­рьез. А если это напи­сал некто в ФБ с пустым про­фи­лем — да пусть он хоть абсо­лют­ную исти­ну гла­го­лет, мы ему не пове­рим и про­ве­рять его инфор­ма­цию не будем, пото­му что жизнь корот­ка и опро­вер­гать каж­до­го бол­ту­на сил нет.

Вот недав­но некто опуб­ли­ко­вал в Twitters «фото­гра­фию взры­ва Пентагона». Картинка, судя по все­му, как раз сде­ла­на ИИ. Сто тысяч дура­ков ее пере­по­сти­ли, хотя одно­го бег­ло­го взгля­да на это «фото» доста­точ­но, что­бы понять, что это фейк, да еще и гру­бый какой-то. Но сто тысяч дура­ков — это ведь сила. Выступил пред­ста­ви­тель Пентагона, ска­зал, что ниче­го тако­го не было, высту­пил пожар­ный инспек­тор Арлингтона, ска­зал, что ниче­го тако­го не было. Все как-то успо­ко­и­лись и забы­ли. Но самое инте­рес­ное: бир­же­вой индекс чуть про­сел на фоне это­го шума. Не силь­но — на 0.29%, но про­сел. Ненадолго. Потом вос­ста­но­вил­ся. Что слу­чи­лось? Машины трей­де­ров сле­дят в том чис­ле за ново­стя­ми. Они пой­ма­ли этот шум. Если бы они при­ня­ли новость все­рьез, индек­сы про­се­ли бы ого-го как. Но маши­ны быст­ро во всем разо­бра­лись и индекс вер­ну­ли на место. Они ока­за­лись к тако­му гру­бо­му фей­ку готовы.

Прежде чем мы вста­нем на зыб­кую поч­ву пред­по­ло­же­ний «а что будет, если…», куда нас втас­ки­ва­ют бук­валь­но за воло­сы серьез­ные люди — раз­ра­бот­чи­ки ИИ, два сло­ва о реаль­но­сти. А она такая: одна бом­ба, упав­шая на мир­ный город, одна пуля, оста­но­вив­шая живое серд­це, нанес­ли вре­да несрав­ни­мо боль­ше, чем весь ИИ, кото­рый сего­дня есть.

И я бы срав­не­ни­я­ми ИИ с ядер­ной вой­ной и пан­де­ми­ей не бро­сал­ся. Когда на кон­фе­рен­ции в Абу-Даби высту­пил Эндрю Джексон, свя­зан­ный с DarkMatter, ста­ло как-то понят­но, поче­му ника­ко­го ана­ло­га МАГАТЭ для кон­тро­ля ИИ не полу­чит­ся. МАГАТЭ рабо­та­ет с круп­ны­ми и тяже­лы­ми (в самом пря­мом смыс­ле) объ­ек­та­ми: ура­но­вые руд­ни­ки, заво­ды для полу­че­ния ору­жей­но­го плу­то­ния, реки для охла­жде­ния атом­ных элек­тро­стан­ций… Это все доволь­но лег­ко уви­деть пря­мо из кос­мо­са. А как уви­деть систе­му ИИ? Особенно, на пер­вом эта­пе, когда ей еще не нуж­на для актив­ной рабо­ты боль­шая мощ­ность. И полу­ча­ет­ся, что «тем­ные» ком­па­нии уже гото­вы при­нять уча­стие в «кон­тро­ле», а вот их самих-то как кон­тро­ли­ро­вать? У ЦРУ пока полу­ча­ет­ся не слиш­ком убе­ди­тель­но. От пан­де­мии по оцен­ке ВОЗ умер­ло не менее 20 мил­ли­о­нов чело­век. Не гово­ря уже о пере­бо­лев­ших, о лонг­ко­ви­де. Это столь­ко боли и горя, что не до ИИ вооб­ще-то. А то, что гово­рят сами раз­ра­бот­чи­ки о ИИ, это про­гно­зы, то ли более, то ли менее вероятные.

Так что будет, если «взрыв Пентагона» будет не гру­бым фей­ком, а тон­ко и глу­бо­ко про­ра­бо­тан­ной систе­мой дез­ин­фор­ма­ции, рас­счи­тан­ной на то, что трей­дер­ские маши­ны его не рас­по­зна­ют, и индек­сы все­рьез упа­дут. А такой фейк будет очень доро­го сто­ить. Его не сде­ла­ешь за пять минут. Он дол­жен будет как мини­мум обма­нуть Reuters и AFP. Именно «и». Информация долж­на идти сра­зу из несколь­ких неза­ви­си­мых источ­ни­ков, у кото­рых свои источ­ни­ки (будем счи­тать, что они друг у дру­га ново­сти не пере­пи­сы­ва­ют или, по край­ней мере, не долж­ны). Вот их и надо будет убе­дить. А они вооб­ще-то и по ста­рин­ке уме­ют: снять труб­ку и позво­нить в пожар­ный уча­сток горо­да Арлингтона, и при этом (для надеж­но­сти) по ана­ло­го­во­му кана­лу. (Как ни стран­но, про­вод­ные ана­ло­го­вые теле­фо­ны до сих пор суще­ству­ют, и к ана­ло­го­вым систе­мам шиф­ро­ва­ния серьез­ные люди отно­сят­ся серьез­но. Вот, напри­мер, кван­то­вая крип­то­гра­фия — аналоговая).

Если инфор­ма­ция лег­ко доста­ет­ся (лепит­ся с лету на колен­ке), то она и сто­ит деше­во, и тира­жи­ро­вать ее лег­ко. Но она неубе­ди­тель­на, сколь­ко бы наив­ных поль­зо­ва­те­лей ее не репо­сти­ли. Если ИИ все зальет таки­ми деше­вы­ми дипфей­ка­ми, они про­сто пере­ста­нут вос­при­ни­мать­ся как зна­чи­мая инфор­ма­ция, а будут выгля­деть как баналь­ный поч­то­вый спам. Он вам силь­но меша­ет сего­дня? Мне нет. А ведь два­дцать лет назад это была серьез­ная про­бле­ма. Чтобы хоть кого-то хоть в чем-то убе­дить, в эти дипфей­ки при­дет­ся серьез­но вло­жить­ся и без гаран­тии, что они сра­бо­та­ют. А даль­ше все будет как все­гда: высо­кий риск поте­ри инве­сти­ций. Кто-то будет рис­ко­вать. Но цена будет толь­ко рас­ти. Как и сего­дня. Как и всегда.

Но про­бле­ма дипфей­ков, конеч­но, очень слож­ная. У нее куча тон­ких момен­тов. Уже сего­дня вид­но, что как в слу­ча­ях со спа­мом или ком­пью­тер­ны­ми виру­са­ми будут раз­ви­вать­ся и меч (ИИ-гене­ра­тор фей­ков), и щит (ИИ-детек­тор). И имен­но эта про­бле­ма сего­дня глав­ная. Здесь риск вполне кон­крет­ный. Здесь есть кон­крет­ные реше­ния, но это отдель­ный разговор.

Почему народные массы так вяло реагируют на этот ужас-ужас-ужас?

А поче­му, соб­ствен­но, без­молв­ству­ет народ? Что-то не вид­но ника­ких демон­стра­ций про­тив ИИ. Ну раз­ве что гол­ли­вуд­ские сце­на­ри­сты высту­пи­ли: они тре­пет­но отно­сят­ся к сво­ей интел­лек­ту­аль­ной соб­ствен­но­сти и боят­ся, что у них ИИ отни­мет кусок хле­ба (они это назы­ва­ют про­бле­мой «пла­ги­а­та»). Может, и не напрас­но боятся.

Почему люди гро­ми­ли выш­ки 5G, поче­му роли­ки про то, как Билл Гейтс всех чипи­ру­ет, наби­ра­ли мил­ли­о­ны про­смот­ров? Да и вооб­ще было ведь целое дви­же­ние анти­вак­се­ров: не сто чело­век, и не тыся­ча, мил­ли­о­ны по все­му миру. Где оза­бо­чен­ные граж­дане, высту­па­ю­щие про­тив ИИ? Он ведь, если верить OpenAI, куда опас­нее вак­цин? Почему за кон­троль над ИИ сего­дня высту­па­ют либо сами раз­ра­бот­чи­ки, либо пра­ви­тель­ствен­ные чинов­ни­ки и кон­гресс­ме­ны, или, вот, гол­ли­вуд­ские сценаристы?

Вот про чипи­ро­ва­ние и вак­ци­ны все было понят­но. Не пото­му, что кто-то что-то пони­мал, как это рабо­та­ет и чем таким 5G отли­ча­ет­ся от 4G, а пото­му, что было реаль­но страш­но. Все это варе­во буль­ка­ло на чер­ном огне пан­де­мии. Вирус — это неви­ди­мый убий­ца. Как с ним бороть­ся? А так, выш­ку раз­дер­ба­нишь — и полег­ча­ет. Хоть что-то сде­лал полез­ное. А какая она: 5G или 4G — кто их считает?

А вот с ИИ все непо­нят­но. Те, кто сего­дня предо­сте­ре­га­ет о его опас­но­сти, не пред­ло­жи­ли ни одно­го убе­ди­тель­но­го сце­на­рия, как имен­но он уни­что­жит чело­ве­че­ство. Skynet, навер­ное, или «Легион»? Ничего, ребя­та, все будет ОК. Шварценеггер нас защитит.

Почему Шварценеггер — это доста­точ­ная защи­та от ИИ с точ­ки зре­ния народ­ных масс? Потому что все гло­баль­ные опас­но­сти, о кото­рых гово­рят сего­дня и раз­ра­бот­чи­ки, и чинов­ни­ки, в конеч­ном сче­те сво­дят­ся к мыс­лен­но­му экс­пе­ри­мен­ту: а что будет если… То есть, к неко­то­ро­го рода фан­та­сти­ке. Вроде серой сли­зи. Ее ведь тоже недав­но боя­лись. Рассосалась как-то.

Почему именно сегодня возник этот разговор про опасность ИИ?

Так что же все-таки слу­чи­лось? Почему имен­но сей­час и с такой силой? Почему еще пару меся­цев назад никто ниче­го тако­го не гово­рил? На самом деле гово­ри­ли. И часто гово­ри­ли. Просто это бор­мо­та­ние себе под нос никто не слы­шал. Но 14 мар­та  вышел ChatGPT 4. Прогресс меж­ду ChatGPT 3.5 и 4.0 настоль­ко боль­шой, что мно­гие охну­ли. Этот ска­чок заме­ти­ли при­мер­но 100 мил­ли­о­нов поль­зо­ва­те­лей. Возник гипо­те­ти­че­ский сце­на­рий: а если он так будет про­грес­си­ро­вать даль­ше, то мы поте­ря­ем над ним кон­троль. А, когда спо­хва­тим­ся, будет уже позд­но. Что позд­но? Над чем «поте­ря­ем кон­троль»? Это не важ­но. Тогда появи­лось пись­мо Маска со това­ри­щи. Потом дру­гие пись­ма, о кото­рых я гово­рил. Потом под­тя­ну­лись чиновники.

Джеффри Хинтон ска­зал в интер­вью NYT: «Есть веро­ят­ность, что про­ис­хо­дя­щее в этих систе­мах намно­го пре­вос­хо­дит по слож­но­сти про­цес­сы в чело­ве­че­ском моз­ге. Посмотрите на то, что про­ис­хо­ди­ло пять лет назад, и на то, что про­ис­хо­дит сей­час. Представьте, с какой ско­ро­стью изме­не­ния будут про­ис­хо­дить в буду­щем. Это пугает».

Здесь назва­на и вто­рая при­чи­на стра­ха, кро­ме ско­ро­сти: то, что мы не пони­ма­ем, как это рабо­та­ет, это бы лад­но, да вот есть шанс, что нико­гда не пой­мем, пото­му что более про­стая систе­ма (био­ло­ги­че­ский мозг) про­сто не смо­жет разо­брать­ся в более слож­ной (напри­мер, в superintelligence).

Стали наби­рать силу новые и ста­рые сце­на­рии кон­ца све­та при помо­щи ИИ. Насколько они прав­до­по­доб­ны? Может быть, это сто­ит обсу­дить. Пока мне бли­же все­го взгляд Билла Гейтса. Он напи­сал про­сто: вот когда-то дав­ным-дав­но появил­ся гра­фи­че­ский интер­фейс. И он пол­но­стью изме­нил вза­и­мо­дей­ствие ком­пью­те­ра и чело­ве­ка. Теперь появи­лись Большие Языковые Модели: GPT, напри­мер. Они тоже изме­нят вза­и­мо­дей­ствие ком­пью­те­ра и чело­ве­ка. Это здо­ро­во и кру­то. Какие-такие кон­цы све­та? Или, наобо­рот, фило­соф­ские кам­ни? О чем вы?

Может быть, Гейтс чего-то не видит? Недооценивает гло­баль­ность пере­мен? Все он видит. Просто он при­ни­мал непо­сред­ствен­ное уча­стие в столь­ких ком­пью­тер­ных рево­лю­ци­ях, что видит не толь­ко вход в новую вол­ну, но и выход. И я дове­ряю его огром­но­му опы­ту. Потому что и сам ника­ких ката­стро­фи­че­ских сце­на­ри­ев, год­ных не толь­ко на то, что­бы подраз­нить пуб­ли­ку, а все­рьез, тоже не вижу.

Но мир непред­ска­зу­ем. И мы в этом посто­ян­но убеж­да­ем­ся. Впрочем, GPT 4.5 обе­ща­но в сен­тяб­ре, а GPT 5.0 — не позд­нее янва­ря. Многое прояснится.

  10.06.2023

, , ,