Почему технологические гиганты хотят задушить ИИ бюрократией

Опе от радость писать о бизнесе — это тот редкий момент, когда понимаешь, что условности меняются на глазах. По моему позвоночнику бегут мурашки. Напрасно вы начинаете записывать каждую деталь своего окружения, словно пишете первые строки бестселлера. Это недавно случилось с вашим обозревателем в Сан-Франциско, сидящим в безукоризненно чистых офисах Anthropic, любимца искусственного интеллекта (искусственный интеллект) этап. Когда Джек Кларк, один из соучредителей компании Anthropic, провел аналогию между планом Баруха и (неудачной) попыткой отказаться от мирового атомного оружия в 1946 году, ООН контроль и необходимость глобальной координации для предотвращения распространения вредных веществ искусственный интеллектэто было старое знакомое покалывание. Когда предприниматели сравнивают свои творения, даже поверхностно, с атомными бомбами, это кажется поворотным моментом.
Ваш браузер не поддерживает этот элемент
Из чатаGPT появился на сцене в конце прошлого года, не было недостатка в беспокойстве по поводу экзистенциальных угроз, которые он представляет искусственный интеллект. Но это что-то другое. Послушайте некоторых первопроходцев в этой области, и они меньше беспокоятся об антиутопическом будущем, в котором машины перехитрят людей, и больше об опасностях того, что они делают сейчас. чатGPT является примером «генеративного» ай, который создает человекоподобный контент на основе анализа текстов, изображений и звуков в Интернете. сама Альтман Генеральный директор из открытогоискусственный интеллектстартап, построивший его, заявил на слушаниях в Конгрессе в этом месяце, что вмешательство регулирующих органов имеет решающее значение для управления рисками, связанными со все более мощными «большими языковыми моделями» (магистр правас) за ботами.
В отсутствие правил некоторые из его коллег из Сан-Франциско говорят, что они уже установили обратные каналы связи с правительственными чиновниками в Вашингтоне, округ Колумбия. ОКРУГ КОЛУМБИЯобсудить потенциальный вред, обнаруженный при изучении их чат-ботов. К ним относятся токсичные материалы, такие как расизм, и опасные возможности, такие как уход за детьми или изготовление бомб. Мустафа Сулейман, соучредитель Inflection искусственный интеллект (и член правления Экономистявляется материнской компанией), планирует в ближайшие недели предложить щедрые вознаграждения хакерам, которые обнаружат уязвимости в цифровом компаньоне его компании, Pi.
Такая осторожность заставляет этот первоначальный технический бум выглядеть иначе, чем в прошлом — по крайней мере, на первый взгляд. Как обычно, есть венчурный капитал. Однако, в отличие от прошлогоднего подхода «действуй быстро и ломай вещи», сегодня многие стартапы сосредоточены на безопасности. Старая пословица Кремниевой долины о регулировании — что лучше попросить прощения, чем разрешения — была отвергнута. Такие стартапы, как Openискусственный интеллектAnthropic и Inflection так стремятся передать идею, что они не жертвуют безопасностью только для того, чтобы заработать деньги, которые они вложили в корпоративные структуры, ограничивающие максимизацию прибыли.
Еще одна особенность этого бума заключается в том, что стартапы создают свои собственные магистр праваs не предназначены для свержения существующей иерархии больших технологий. На самом деле, они могут помочь закрепить его. Это потому, что их отношения с технологическими гигантами ведут гонку за генеративными искусственный интеллект они симбиотичны. открытьискусственный интеллект связана с Microsoft, крупным инвестором, который использует технологии первого для улучшения своего программного обеспечения и поисковых продуктов. Google, принадлежащий Alphabet, имеет значительную долю в Anthropic; 23 мая стартап объявил о своем последнем раунде финансирования в размере 450 миллионов долларов, который включал дополнительные инвестиции от технологического гиганта. Продолжая укреплять деловые связи, молодые компании полагаются на высокотехнологичные платформы облачных вычислений для обучения своих моделей океану данных, что позволяет чат-ботам вести себя как люди, с которыми они разговаривают.
Как и стартапы, Microsoft и Google хотят показать, что они серьезно относятся к безопасности, даже когда яростно сражаются друг с другом в гонке чат-ботов. Они также утверждают, что необходимы новые правила и международное сотрудничество в области наблюдения. магистр прававажно. Как алфавит Генеральный директорСундар Пичаи, скажи: «искусственный интеллект слишком важно не регулировать, и слишком важно не регулировать хорошо».
Такое обращение может быть полностью оправдано риском дезинформации, манипулирования выборами, терроризма, сбоев в работе и других потенциальных угроз, которые становятся все более мощными. искусственный интеллект могут появиться модели. Однако стоит помнить, что регулирование принесет пользу и технологическим гигантам. Это связано с тем, что он имеет тенденцию укреплять существующие рыночные структуры, создавая издержки, которые те, кто занимает рынок, легче всего нести, и повышая барьеры для входа.
Это важно. Если большие технологии будут использовать регулирование, чтобы укрепить свои позиции на доминирующих генеративных высотах искусственный интеллектпроисходит обмен. Гиганты с большей вероятностью внедрят технологии для улучшения своих существующих продуктов, чем для их полной замены. Они попытаются защитить свой основной бизнес (корпоративное программное обеспечение в случае поиска Microsoft и Google). Вместо того, чтобы возвестить эру Шумпетеровского творческого разрушения, это послужит напоминанием о том, что крупные действующие лица теперь контролируют инновационный процесс — то, что некоторые называют «творческим накоплением». Технология может оказаться менее революционной, чем могла бы быть.
ЛАМА на свободе
Этот результат не предопределен. Одна из диких карт с открытым исходным кодом искусственный интеллекткоторый распространился с марта, когда ЛЛИМама, магистр права разработанный Meta, просочился в сеть. В Кремниевой долине уже поговаривают, что разработчики с открытым исходным кодом способны создавать генеративныеискусственный интеллект модели, почти не уступающие существующим, проприетарные и сотые доли стоимости.
Г-н Кларк из Anthropic описывает открытый исходный код искусственный интеллект как «очень тревожная концепция». Хотя это хороший способ ускорить инновации, его также трудно контролировать, будь то в руках враждебного государства или 17-летнего автора программ-вымогателей. Такие опасения развеются, когда глобальные регуляторы займутся проблемой генерации. искусственный интеллект. У Microsoft и Google — и, соответственно, у их начальных сборов — гораздо более глубокие карманы, чем у разработчиков ПО с открытым исходным кодом, чтобы иметь дело с тем, что придумывают регулирующие органы. Они также больше заинтересованы в поддержании стабильности информационной системы, которая превратила их в титанов. На этот раз желание безопасности и прибыли могут совпасть. ■
Узнайте больше от Шумпетера, нашего обозревателя глобального бизнеса:
Культурные войны Америки угрожают ее единому рынку (18 мая)
Остерегайтесь забастовщиков: Голливуд изменился навсегда (10 мая)
Америке нужен удар в корпоративную задницу (3 мая)
Также: если вы хотите написать Шумпетеру напрямую, отправьте электронное письмо по адресу [email protected]. И вот оно Объяснение откуда пошло название столбца Шумпетера?
Свежие записи
- Устойчив ли сектор предметов роскоши к рецессии? 02.06.2023
- Как победить гнев за столом 02.06.2023
- Неплатежеспособность Go First подвергает испытанию индийскую систему банкротства 02.06.2023
- Сенат США принял законопроект о прекращении противостояния с потолком долга и предотвращении дефолта 02.06.2023
- Какова идеальная цена угля? 02.06.2023
