Компания Anthropic неожиданно закрыла свой экспериментальный блог Claude Explains, посвящённый возможностям языковой модели Claude. Блог, просуществовавший около месяца, был запущен в качестве пилотного проекта, призванного совместить запросы пользователей на обучающие материалы с маркетинговыми целями компании. На страницах Claude Explains публиковались статьи на технические темы, например, «Упрощение сложных кодовых баз с помощью Claude». При этом Anthropic не раскрывала, какая именно часть текста в статьях была написана самой моделью Claude, а какая – отредактирована людьми.
Представители компании ранее заявляли, что над блогами работали эксперты и редакторы, которые дополняли черновики Claude «практическими примерами и контекстным знанием». Планировалось расширить тематику блога, включив в неё креативное письмо, анализ данных и бизнес-стратегии. Однако эти планы были скорректированы. Компания позиционировала Claude Explains как демонстрацию сотрудничества человеческого опыта и возможностей ИИ, подчёркивая, что цель не в замене специалистов, а в усилении их работы.
Иллюстрация: LeonardoОднако, как выяснилось, проект не получил однозначной положительной оценки. Отсутствие прозрачности в отношении того, какой именно текст был сгенерирован ИИ, вызвало критику в социальных сетях. Некоторые пользователи посчитали блог попыткой автоматизировать контент-маркетинг, что вызвало опасения относительно этичности подобного подхода. Более того, по данным инструмента SEO-анализа Ahrefs, на момент закрытия блога на него ссылалось более 24 веб-сайтов, что свидетельствует о сравнительно высоком уровне вовлечённости аудитории за столь короткий период существования.
Вероятно, Anthropic также обеспокоилась возможными негативными последствиями, связанными с неточностью информации, генерируемой ИИ. Случаи публикации неверных данных, сгенерированных искусственным интеллектом, уже были зафиксированы в крупных медиа-компаниях, таких как Bloomberg и G/O Media, что вызвало серьёзные репутационные потери. Поэтому, закрытие Claude Explains может быть воспринято как превентивная мера, направленная на предотвращение подобных проблем. В итоге, проект продемонстрировал как возможности, так и сложности использования ИИ в создании контента, подчеркнув необходимость тщательной проверки и контроля над генерируемой информацией.