В ноябре 2022 года сервис генеративного, то есть порождающего, интеллекта ChatGPT набрал 1 млн пользователей всего за пять дней. Сейчас на сайт сервиса ежемесячно приходит до 1,5 млрд обращений более чем от 100 млн пользователей. Стремительный взлет не остался не замеченным бизнесом: инструменты генеративных моделей стали примеривать к самым разным задачам. В недавнем докладе McKinsey[35] экономический потенциал генеративного ИИ, то есть систем, идеологически подобных ChatGPT, оценивается в триллионы долларов ежегодно. Впрочем, другие исследователи дают на порядок меньшие оценки. По прогнозу McKinsey, примерно три четверти прироста эффективности бизнеса придется на четыре функции компаний: работа с клиентом, продажи и маркетинг, разработка и внедрение софта и НИОКР. В одном только программировании и отладке софта исследователи видят прирост эффективности на 40–50 % за счет использования ИИ. GitHub провела опрос разработчиков софта, который показал, что ИИ-Сopilot, разработанный совместно с OpenAI и доступный на GitHub с 2022 года, к февралю 2023 года использовался для всех языков программирования и был применен в 46 % кода, написанного его адептами. 90 % респондентов опроса отметили, что подсказки и контроль кода со стороны Copilot ускорили разработку[36].
Дэвид Отор, профессор экономики в MIT, считает, однако, что делать прогнозы экономической ценности генеративного ИИ пока рано. Инструмент может оказаться совсем не таким волшебным, как видится сейчас. Во-первых, нельзя пока оценить риски ошибок и дезинформации, порождаемой ИИ, а во-вторых, его работа может выйти из-под контроля человека, предупреждает Отор[37].
Ажиотаж вокруг GPT несколько месяцев нарастал стремительно: в его подъем вложились не только СМИ, но и эксперты. Затем хайп сменился скепсисом. На страницах Sloan Management Review профессор Virginia Tech Ли Винсел написал: «Когда информация исходит от источников, известных своей способностью порождать технологический хайп, – консалтинговых фирм, поставщиков технологий и отраслевых аналитиков, – бизнес-лидеры должны быть настроены особенно критически». По мнению Винсела, академические публикации не дают никаких доказательств реального воздействия GPT на работу белых воротничков, а предсказания о том, что технологии отнимут у людей рабочие места, стары как мир. В условиях мирового ажиотажа вокруг больших лингвистических моделей руководителями компаний в основном движет эмоция FOMO (Fear of Missing Out), то есть страх оказаться в стороне), и Винсел советует им взглянуть на вещи трезво. Исторически, пишет он, новые ИТ-технологии, будь то текстовый процессор или CRM-система, действительно давали компаниям-первопроходцам конкурентное преимущество, но оно длилось лишь до того момента, пока подобный софт не начинали применять другие участники рынка, причем, как правило, это происходило довольно быстро[38]. А экономист Гэри Смит полагает, что недавнее заявление интеллектуалов о риске исчезновения человечества, связанном с ИИ[39], дополнительно разжигает хайп, придавая чрезмерное значение большим языковым моделям (Large Language Models, LLM). Заявления о гипотетических угрозах победы искусственного разума над естественным отвлекает людей от реальных проблем – достоверности и этики применения ИИ[40].
Известные теоретики бизнес-стратегий Мартин Ривз из BCG и Кристиан Стадлер из Университета Уорвик написали о собственном опыте: они обратились к ChatGPT за советами в построении стратегии. Общение не было бесполезным: рекомендации ИИ в целом были разумными. Главное – чтобы собрать тот массив знаний, который система выдала за считанные секунды, потребовалось бы многочасовое общение с группой экспертов. Их вывод: чтобы получить от ChatGPT нечто дельное, надо задавать правильные вопросы в правильной последовательности, самому быть экспертом, способным оценить валидность гипотез и рекомендаций ИИ. Есть статьи, которые дают рекомендации компаниям, если те решат применять LLM. Айзек Саколик, в прошлом CIO в крупных компаниях и автор книг, опубликовал подборку мнений экспертов из компаний разных отраслей о том, как получить пользу от языковых моделей[41].
1 СОВЕТ
Изучите возможности LLM в своих основных инструментах. За последние несколько месяцев многие ведущие поставщики софта объявили о том, что встроили ИИ и LLM в свои платформы. Вот несколько примеров.
• Microsoft 365 Copilot добавлен в Word, Excel, PowerPoint, Outlook и Teams. Получив задание вроде «Расскажи команде о том, как мы обновили продуктовую стратегию», Copilot проанализирует вашу переписку, заметки и протоколы встреч и создаст обновленный статус на основе всех 365 приложений Microsoft.
• Adobe Firefly – генеративный искусственный интеллект, который рисует и редактирует картинки по описанию; интегрирован с Photoshop, Illustrator и Adobe Express.
• Salesforce объявила об AI Cloud с интеграциями в свои основные CRM-продукты, Slack и Tableau.
• GitHub Copilot соединен с IDE и предлагает подсказки и редактирование кода.
• Google Duet AI для Google Cloud объединяет помощь в написании кода, ассистента в чате и возможности AppSheet.
• Компания облачных вычислений ServiceNow обещает интеграцию с Microsoft Azure OpenAI Service и OpenAI API LLM. В мае 2023 года ServiceNow заключила партнерство с Nvidia для создания индивидуальных ИИ-систем для компаний (в противовес универсальным инструментам от OpenAI, Google и других компаний бигтеха).
2 СОВЕТ
Получайте быстрые ответы, но помните, что не всем им можно верить. Основное применение ChatGPT и LLM – составление текста и ответы. Не нужно долго собирать информацию, читая источники: нейросеть даст развернутую справку по любой теме. Маркетологи пользуются этим в коммуникации с клиентами, а службы персонала – в переписке с кандидатами на вакансии и сотрудниками. Считается, что LLM увеличат производительность труда этих служб. Однако нельзя забывать, что способность этих моделей к порождению текста превосходит их умение отличать достоверные данные от ложных сообщений. Иногда ошибки чудовищны, но чаще они малозаметны.
Создатели модели GPT пока не нашли способа бороться с ее «галлюцинациями». Более того, иногда, улучшая одну способность модели, они непреднамеренно снижают другие. Недавнее исследование ученых из Стэнфорда показало, насколько «поглупела» GPT4: версия марта 2023 года правильно отвечала на вопрос «Число 17 077 простое?» в 97,6 % случаев, а июньская версия – лишь в 2,4 % случаев[42]. Кроме того, надо помнить, что GPT-3,5, которая лежит в основе ChatGPT, обучена на данных до сентября 2021 года и потому не знает ничего о том, что произошло позднее. В целом модели могут обеспечить лишь предварительный драфт, но не дать окончательный ответ. По словам юриста и колумниста ресурса abovethelaw Джонатана Вулфа, GPT-4 отвечает на юридические вопросы на уровне стажера, закончившего первый курс обучения со средним баллом «три»[43].
3 СОВЕТ
Используйте LLM для переработки информации. В разных отделах компаний накапливается масса специализированной информации, из которой непросто вычленить самое важное. LLM в состоянии облегчить поиск и восприятие контента для клиентов и сотрудников. Она поможет быстрее разобраться в объемных инструкциях по продукту и учебных пособиях для операторов. Другое применение – быстрое решение операционных проблем. Скажем, устранение неполадок в работе многоцелевой базы данных может потребовать значительных временны́х затрат, а генеративный искусственный интеллект быстрее справится с этой проблемой, считает Дейв Пейдж, вице-президент и главный архитектор баз данных в EDB. Фил Ти, генеральный директор и соучредитель Moogsoft, предостерегает: машинное понимание может быть иллюзорным. «ChatGPT и другие LLM дают технические советы и объясняют сложные процессы на доступном уровне, – говорит Ти. – Но узнать о том, что некий набор шагов способен решить вашу проблему, – это не то же самое, что понять, нужны ли эти шаги сейчас. Слишком полагаться на LLM опасно».
4 СОВЕТ
Не делитесь важной информацией на общедоступных LLM-платформах. Проблема с ChatGPT и многими другими инструментами ИИ заключается в том, что введенная информация становится частью набора данных для обучения модели. Вашими данными могут воспользоваться конкуренты. А загрузив данные клиента в целях персонализации предложения, компания рискует нарушить законы. Поэтому перед экспериментами с ИИ изучите законы и политику своей компании в сфере данных и ИИ и раскройте цели эксперимента, как того требуют правила[44]
О проекте
О подписке