Почему Рид Хоффман оптимистично смотрит на наше будущее ИИ

В своей новой книге \"Суперагент: Что может пойти правильно со нашим будущим ИИ\" сооснователь LinkedIn делает акцент на том, что ИИ может расширить человеческое агентство — давая нам больше знаний, лучшие работы и улучшенные жизни — а не уменьшить его.

Это не значит, что он игнорирует потенциальные недостатки технологии. На самом деле, Хоффман (который написал книгу вместе с Грегом Беато) описывает свое видение ИИ и технологии, в целом, как ориентированное на \"умное принятие рисков\", а не на слепой оптимизм.

\"Все, как правило, слишком много фокусируются на том, что может пойти не так, и недостаточно на том, что может пойти правильно\", — сказал мне Хоффман.

И хотя он поддерживает \"интеллектуальное регулирование\", он утверждает, что \"итеративный процесс развертывания\", который позволяет получить ИИ-инструменты в руки каждого, а затем реагировать на их обратную связь, еще более важен для обеспечения положительных результатов.

\"Частью причины того, что сегодня машины могут ездить быстрее, чем в то время, когда их впервые создали, является то ..., что мы придумали множество различных инноваций вокруг тормозов, подушек безопасности, бамперов и ремней безопасности,\" — сказал Хоффман. \"Инновация это не только небезопасно, она даже приводит к безопасности\".

В нашем разговоре о его книге мы также обсудили преимущества, которые уже видит Хоффман (который также бывший член совета директоров OpenAI, нынешний член совета директоров Microsoft и партнер Greylock) от ИИ, потенциальное климатическое влияние технологии и разницу между ИИ-думером и ИИ-глумером.

Это интервью было отредактировано для краткости и ясности.

Вы уже написали другую книгу о ИИ, Impromptu. А с Superagency, что вы хотели сказать, чего еще не сказали?

Так, Impromptu в основном пытался показать, что ИИ мог [предоставлять] относительно легкое усиление интеллекта, и демонстрировал это, а не только говорил об этом по разным векторам. Суперагент во многое касается вопроса о том, как, фактически, наше человеческое агентство значительно улучшается, не только благодаря сверхспособностям, что, очевидно, является частью этого, но и благодаря изменению наших отраслей, наших обществ, поскольку несколько из нас все же получают эти сверхспособности от этих новых технологий.

Общий дискурс вокруг этих вещей всегда начинается с глубокого пессимизма, а затем превращается в то, что можно назвать новым высшим состоянием человечества и общества. ИИ всего лишь последняя деструктивная технология в этом. Impromptu на самом деле не касался опасений настолько ... достижения этого более человеческого будущего.

Изображение: Саймон и Шустер

Вы начинаете с разделения различных точек зрения на ИИ на такие категории, как глумеры, думеры, зумеры, думеры. Мы можем пройти каждый из них, но начнем с глумера, так как именно к таковым вы относите себя. Что такое глумер и почему вы считаете себя таковым?

Я считаю, что глумер по своей сути оптимистичен по отношению к технологиям и [считает], что построенные технологии могут быть очень, очень полезны для нас как отдельных личностей, как групп, как обществ, как человечества, но, это не значит, что все, что можно построить, прекрасно.

Так что вам следует руководствоваться рисками, но умными рисками, а не слепыми рисками, и вы вступаете в диалог и взаимодействие, чтобы руководить. Это одна из причин, почему мы так много говорим о итеративном развертывании в книге, потому что идея заключается в том, что, если вы включаетесь в этот разговор с множеством людей через итеративное развертывание. Вы вовлекаетесь в это с целью руководить, чтобы сказать: \"О, если у него такая форма, это намного, намного лучше для всех. И это делает эти плохие случаи более ограниченными, как по мере того, насколько они распространены, так и по мере воздействия, которое они могут оказать\".

И когда вы говорите о руководстве, регулировании, которому вы, кажется, считаете, наиболее обещающим в этом итеративном развертывании, особенно в масштабе. Считаете ли вы, что преимущества уже заложены — то есть, если мы дадим ИИ в руки большему числу людей, это по своей сути мало-демократично? Или вы считаете, что продукты должны быть разработаны таким образом, чтобы люди могли иметь свои замечания?

Ну, я думаю, что это может зависеть от различных продуктов. Но одно из вещей, которые мы пытаемся проиллюстрировать в книге, это то, что просто имея возможность общаться и говорить о продукте — включая использование, не использование, использование в определенных способах — это фактически, вместе с тем, взаимодействие и помогает формировать [его], верно? Потому что люди, которые его строят, смотрят на эту обратную связь. Они смотрят на: Вы включились? Вы не включились? Они слушают людей в онлайне и в прессе и везде, говоря: \"Это здорово\". Или: \"Это действительно отстой\". Это огромное количество руководства и обратной связи от многих людей, отдельно от того, что можно получить от моих данных, которые могут быть включены в итерацию, или что я мог бы проголосовать или как-то выразить прямую, направленную обратную связь.

Я думаю, я пытаюсь разобраться, как эти механизмы работают, потому что, как вы отмечаете в книге, особенно с ChatGPT, он стал настолько популярен. Так что если я скажу: \"Эй, мне не нравится это в ChatGPT\" или \"У меня есть это возражение к нему и я не буду его использовать\", то это просто будет затоплено множеством людей, использующих его.

Часть этого состоит в том, что, участвуя с сотнями миллионов людей, не означает, что вы ответите на возражение каждого человека. Некоторые могут сказать: \"Машины не должны развивать скорость более 20 миль в час\". Ну, хорошо, что ты так думаешь.

Это агрегат [обратной связи]. И по агрегату, если, например, вы выражаете что-то, что вызывает вызовы или колебания или сдвиг, а затем другие люди начинают выражать это, то вероятность того, что это будет услышано и изменено, выше. И часть этого заключается в том, что OpenAI конкурирует с Anthropic и наоборот. Они внимательно слушают не только то, что они сейчас слышат, но и ... руководствуются ценным вещами, которые хотят люди, и также уходят от трудных вещей, которые людям не нужны.

Нам может захотеться воспользоваться этими инструментами как потребители, но они могут быть потенциально вредны в тех смыслах, которые не обязательно видны мне как потребителю. Сможет ли этот процесс итеративного развертывания учитывать другие проблемы, возможно, общественные проблемы, которые не находятся на индивидуальном уровне потребителей?

Хорошо, часть причины, по которой я написал книгу о Суперагенте, это чтобы люди действительно [вели] диалог по общественным вопросам. Например, люди говорят: \"Ну, я думаю, что ИИ заставит людей отказаться от своей агентности и [отказаться] от принятия решений о своей жизни\". И тогда люди идут и играют в ChatGPT и говорят: \"Ну, у меня нет такого опыта\". И если очень мало из нас действительно испытывает [эту потерю агентства], то это аргумент против этого, верно?

Вы также говорите о регулировании. Похоже, что вы открыты для регулирования в некоторых контекстах, но вы беспокоитесь о том, что регулирование может потенциально задушить инновации. Можете ли вы рассказать больше о том, как вы думаете, должно выглядеть полезное регулирование ИИ?

Итак, есть пара областей, потому что я действительно положителен по поводу интеллектуального регулирования. Одна из областей заключается в том, когда у вас есть действительно конкретные, очень важные вещи, которые вы пытаетесь предотвратить — терроризм, киберпреступления, другие виды вещей. Вы пытаетесь, в сущности, предотвратить эту действительно плохую вещь, но разрешить широкий спектр других вещей, поэтому вы можете обсуждать: Какие вещи достаточно узко направлены на эти конкретные результаты?

Кроме того, есть глава о [том], что инновация также представляет собой безопасность, потому что когда вы инновируете, вы создаете новые функции безопасности и соответствия. И важно также к этому прибыть, потому что часть причины того, что машины могут ездить быстрее сегодня, чем когда они были впервые сделаны, заключается в том, что мы пришли к выводу, \"О, мы придумали много различных нововведений вокруг тормозов и подушек безопасности и бамперов и ремней безопасности\". Инновация не только небезопасна, она фактически ведет к безопасности.

Одним из способов, который я поощряю людей, особенно в быстро меняющейся и итеративной регулятивной среде, является формулировка вашей конкретной озабоченности как чего-то, что вы можете измерить, и начинать измерять это. Потому что, если вы начинаете видеть, что это измерение растет сильно или тревожным образом, вы можете сказать: \"Хорошо, давайте изучим это и посмотрим, есть ли что-то, что мы можем сделать\".

Еще одно различие, которое вы называете, между глумерами и думерами — думеры это люди, которые более обеспокоены экзистенциальным риском сверхинтеллекта, а глумерами более обеспокоены краткосрочными риск