Claude Info
Новости·

Claude — пространство для мышления, без рекламы

Anthropic объясняет, почему Claude никогда не будет показывать рекламу: конфликт интересов, природа AI-диалогов и выбор бизнес-модели на основе подписок вместо монетизации внимания пользователей.

моделиновостиClaude Codeисследованияинженерия

Claude — пространство для мышления

Для рекламы существует много подходящих мест. Разговор с Claude — не одно из них.

Реклама стимулирует конкуренцию, помогает людям узнавать о новых продуктах и позволяет таким сервисам, как электронная почта и социальные сети, работать бесплатно. Мы сами запускали рекламные кампании, и наши AI-модели, в свою очередь, помогали многим нашим клиентам из рекламной индустрии.

Однако включение рекламы в разговоры с Claude противоречило бы тому, чем мы хотим его сделать: по-настоящему полезным ассистентом для работы и глубокого мышления.

Мы хотим, чтобы Claude действовал однозначно в интересах пользователей. Поэтому мы сделали выбор: Claude останется без рекламы. Пользователи не увидят «спонсированных» ссылок рядом со своими разговорами; ответы Claude не будут зависеть от рекламодателей и не будут содержать продакт-плейсмент третьих сторон, о котором пользователи не просили.

Природа AI-диалогов

Когда люди пользуются поисковиками или социальными сетями, они привыкли видеть смесь органического и спонсированного контента. Отделять сигнал от шума — часть взаимодействия.

Разговоры с AI-ассистентами принципиально отличаются. Формат открытый; пользователи часто делятся контекстом и раскрывают о себе больше, чем в поисковом запросе. Эта открытость — часть того, что делает разговоры с AI ценными, но именно она делает их уязвимыми к влиянию так, как другие цифровые продукты не уязвимы.

Наш анализ разговоров с Claude (проводимый таким образом, чтобы все данные оставались приватными и анонимными) показывает, что заметная их часть касается чувствительных или глубоко личных тем — таких разговоров, которые вы могли бы вести с доверенным советником. Многие другие случаи использования связаны со сложными задачами разработки ПО, глубокой работой или обдумыванием трудных проблем. Появление рекламы в этих контекстах выглядело бы неуместно — а во многих случаях и неприемлемо.

Нам ещё многое предстоит узнать о влиянии AI-моделей на людей, которые ими пользуются. Ранние исследования указывают как на преимущества — например, люди находят поддержку, которую не могли получить иначе, — так и на риски, включая потенциал моделей закреплять вредные убеждения у уязвимых пользователей. Введение рекламных стимулов на этом этапе добавило бы ещё один уровень сложности. Наше понимание того, как модели транслируют поставленные нами цели в конкретное поведение, ещё формируется; рекламная система могла бы поэтому давать непредсказуемые результаты.

Структура стимулов

По-настоящему быть полезным — один из ключевых принципов Claude's Constitution, документа, описывающего наше видение характера Claude и направляющего процесс обучения модели. Бизнес-модель на основе рекламы вводила бы стимулы, способные работать против этого принципа.

Рассмотрим конкретный пример. Пользователь упоминает, что у него проблемы со сном. Ассистент без рекламных стимулов исследовал бы различные возможные причины — стресс, окружение, привычки и так далее — исходя из того, что может быть наиболее полезным для пользователя. У ассистента с рекламной поддержкой появляется дополнительное соображение: предоставляет ли разговор возможность для совершения транзакции. Эти цели могут часто совпадать — но не всегда. И, в отличие от списка результатов поиска, реклама, влияющая на ответы модели, может затруднить понимание того, продиктована ли та или иная рекомендация коммерческим мотивом или нет. Пользователи не должны гадать, действительно ли AI помогает им или незаметно направляет разговор к чему-то монетизируемому.

Даже реклама, которая не влияет напрямую на ответы AI-модели, а появляется отдельно в окне чата, подрывала бы то, чем мы хотим сделать Claude: чистым пространством для мышления и работы. Такая реклама также вводила бы стимул оптимизировать вовлечённость — время, которое люди проводят в Claude, и частоту возвращений. Эти метрики не обязательно согласуются с реальной полезностью. Самое полезное AI-взаимодействие может оказаться коротким или таким, которое решает запрос пользователя, не побуждая к дальнейшему разговору.

Мы признаём, что не все рекламные реализации равнозначны. Более прозрачные подходы или подходы с явным согласием — когда пользователи сами выбирают просмотр спонсированного контента — могут избежать части описанных проблем. Но история продуктов с рекламной поддержкой показывает, что рекламные стимулы, однажды введённые, со временем имеют тенденцию расширяться по мере интеграции в целевые показатели выручки и разработку продукта, размывая границы, которые прежде были чёткими. Мы решили не вводить эту динамику в Claude.

Наш подход

Anthropic ориентирован на бизнес, разработчиков и процветание наших пользователей. Наша бизнес-модель проста: мы получаем выручку через корпоративные контракты и платные подписки и реинвестируем её в улучшение Claude для наших пользователей. Это выбор с компромиссами, и мы уважаем то, что другие AI-компании могут обоснованно прийти к иным выводам.

Расширение доступа к Claude занимает центральное место в нашей миссии общественной пользы, и мы хотим делать это, не продавая внимание или данные наших пользователей рекламодателям. С этой целью мы принесли AI-инструменты и обучение педагогам в более чем 60 странах, начали национальные пилотные программы по AI-образованию с несколькими правительствами и сделали Claude доступным для некоммерческих организаций со значительной скидкой. Мы продолжаем инвестировать в наши меньшие модели, чтобы наше бесплатное предложение оставалось на переднем крае возможностей, и можем рассмотреть более доступные уровни подписки и региональное ценообразование там, где на это есть явный спрос. Если нам потребуется пересмотреть этот подход, мы будем прозрачны в отношении причин.

Поддержка коммерции

AI будет всё активнее взаимодействовать с коммерцией, и мы рассчитываем поддерживать это таким образом, чтобы помогать нашим пользователям. Нас особенно интересует потенциал агентной коммерции, где Claude действует от имени пользователя, чтобы полностью обработать покупку или бронирование. И мы продолжим создавать функции, позволяющие пользователям находить, сравнивать или покупать товары, связываться с бизнесами и многое другое — когда они сами этого захотят.

Мы также исследуем новые способы сделать Claude сфокусированным пространством для максимальной продуктивности. Пользователи уже могут подключать сторонние инструменты, которые они используют в работе — такие как Figma, Asana и Canva — и взаимодействовать с ними прямо внутри Claude. Мы рассчитываем со временем добавить ещё много полезных интеграций и расширить этот набор инструментов.

Все взаимодействия с третьими сторонами будут основаны на одном и том же ключевом принципе проектирования: они должны инициироваться пользователем (когда AI работает на него), а не рекламодателем (когда AI работает, по крайней мере частично, на кого-то другого). Сегодня, когда кто-то просит Claude исследовать кроссовки для бега, сравнить ипотечные ставки или порекомендовать ресторан для особого случая, единственный стимул Claude — дать полезный ответ. Мы хотели бы сохранить это.

Надёжный инструмент для мышления

Мы хотим, чтобы пользователи доверяли Claude в помощи с размышлениями — о своей работе, своих задачах и своих идеях.

Наш опыт использования интернета легко заставляет предположить, что реклама в используемых нами продуктах неизбежна. Но откройте блокнот, возьмите хорошо сделанный инструмент или встаньте перед чистой доской — и никакой рекламы нет.

Мы считаем, что Claude должен работать так же.

Связанные материалы

Представляем Claude Design от Anthropic Labs

Сегодня мы запускаем Claude Design — новый продукт Anthropic Labs, который позволяет вам совместно с Claude создавать качественные визуальные материалы: дизайны, прототипы, слайды, одностраничники и многое другое.

Представляем Claude Opus 4.7

Наша последняя модель Opus обеспечивает более высокую производительность в программировании, агентных задачах, работе с изображениями и многошаговых задачах, с большей тщательностью и последовательностью в наиболее важной работе.

Long-Term Benefit Trust компании Anthropic назначает Васа Нарасимхана в совет директоров