ChatGPT | |
---|---|
![]() | |
![]() | |
Тип | языковая модель, виртуальный собеседник, прототип, ИИ и проприетарное программное обеспечение |
Автор | OpenAI |
Разработчик | OpenAI |
Написана на | Python |
Языки интерфейса | многоязычный, в том числе русский |
Первый выпуск | 30 ноября 2022 года |
Аппаратная платформа | браузер |
Последняя версия | (14 марта 2023) |
Состояние | функционирует |
Лицензия | Проприетарная |
Сайт | chat.openai.com/chat |
![]() |
ChatGPT — чат-бот с искусственным интеллектом, разработанный компанией OpenAI и способный работать в диалоговом режиме, поддерживающий запросы на естественных языках. ChatGPT — большая языковая модель, для тренировки которой использовались методы обучения с учителем и обучения с подкреплением. Данный чат-бот основывается на другой языковой модели от OpenAI — GPT-3.5 — улучшенной версии модели GPT-3. 14 марта 2023 года была выпущена языковая модель GPT-4, доступная тестировщикам и платным подписчикам ChatGPT Plus[1][2]. В новой версии у ИИ появилась возможность обработки не только текста, но и картинок[1].
ChatGPT был запущен 30 ноября 2022 года и привлёк внимание своими широкими возможностями: написание кода, создание текстов, возможности перевода, получения точных ответов и использование контекста диалога для ответов, хотя его фактическая точность и подверглась критике.
В начале февраля 2023 года Reuters со ссылкой на швейцарский холдинг UBS сообщило, что за 2 месяца аудитория активных пользователей ChatGPT достигла 100 млн человек. Этим самым приложение установило исторический рекорд по росту посетителей[3].
Доступ к сервису ограничен в таких странах как Китай, Россия, Белоруссия, Афганистан, Венесуэла, Иран[4]. Также ранее сервис не был доступен для жителей Украины[5].
ChatGPT был доработан поверх GPT-3.5 с использованием методов обучения как с учителем, так и с подкреплением[6]. В обоих подходах использовались люди-тренеры для улучшения производительности модели. В случае обучения с учителем модель была снабжена беседами, в которых тренеры играли обе стороны: пользователя и помощника по искусственному интеллекту. На этапе подкрепления инструкторы-люди сначала оценивали ответы, которые модель создала в предыдущем разговоре. Эти оценки были использованы для создания моделей вознаграждения, на которых модель была дополнительно доработана с использованием нескольких итераций Proximal Policy Optimization[7][8]. Алгоритмы Proximal Policy Optimization имеют преимущество по затратам по сравнению с алгоритмами Region Policy Optimization; они сводят на нет многие дорогостоящие в вычислительном отношении операции с более высокой производительностью[9][10]. Модели были обучены в сотрудничестве с Microsoft на их суперкомпьютерной инфраструктуре Azure.
По сравнению со своим предшественником, InstructGPT, ChatGPT пытается уменьшить количество вредных и вводящих в заблуждение ответов. Например, в то время как InstructGPT воспринимает сообщение о том, что Христофор Колумб прибыл в США в 2015 году как правдивое, ChatGPT использует информацию о путешествиях Колумба и информацию о современном мире, включая восприятие личности Колумба, чтобы построить ответ, предполагающий, что произошло бы, если бы Колумб приплыл в США в 2015 году[7]. Данные в распоряжении у ChatGPT включают в себя справочные страницы, информацию об интернет-феноменах и информацию о языках программирования[11].
В отличие от большинства чат-ботов, ChatGPT отслеживает состояние пользователя, запоминая предыдущие вопросы и ответы, данные ему в том же разговоре, что, по мнению некоторых журналистов, позволит использовать ChatGPT в качестве персонализированного терапевта[12]. В попытке предотвратить выдачу оскорбительных результатов от запросов пользователей и получение оскорбительных ответов, в ChatGPT запросы фильтруются через API модерации, а потенциально расистские или сексистские подсказки отклоняются[7][12].
ChatGPT имеет множество ограничений. Модель вознаграждения ChatGPT, разработанная с учётом человеческого надзора, может быть чрезмерно оптимизирована и, таким образом, снижать производительность, представляя собой закон Гудхарта[13]. При обучении рецензенты предпочитали более длинные ответы, независимо от фактического понимания или фактического содержания[7]. Данные у ChatGPT могут страдать от алгоритмической предвзятости; ответы, включающие расплывчатые описания людей, таких как генеральный директор, могут генерировать ответ, предполагающий, что такой человек, например, является белым мужчиной[14].
ChatGPT был встречен в целом положительными отзывами. Саманта Лок из The Guardian отметила, что он смог сгенерировать впечатляюще подробный и похожий на человеческий текст[15]. Технический писатель Дэн Гиллмор использовал ChatGPT в студенческом задании и обнаружил, что сгенерированный им текст соответствует тому, что мог бы предоставить хороший студент, и высказал мнение, что перед академическими кругами стоят некоторые очень серьёзные проблемы[16]. Алекс Кантровиц из Slate одобрил ответ ChatGPT на вопросы, связанные с нацистской Германией, включая утверждение о том, что Адольф Гитлер строил автомагистрали в Германии, которое было встречено информацией об использовании нацистской Германией принудительного труда[17]. В статье, посвящённой мнению, экономист Пол Кругман писал, что ChatGPT повлияет на спрос работников умственного труда[18]. Джеймс Винсент из The Verge расценил вирусный успех ChatGPT как свидетельство того, что искусственный интеллект стал мейнстримом[8]. В The Atlantic Стивен Марке отметил, что влияние на академические круги и особенно на прикладные эссе ещё предстоит понять[19]. Учитель средней школы Калифорнии и писатель Дэниел Герман написал, что ChatGPT ознаменует конец английского языка в средней школе[20].
Фактическая точность ChatGPT, помимо прочего, была поставлена под сомнение. Майк Перл из Mashable задал ChatGPT множество вопросов. В одном примере он попросил назвать самую большую после Мексики страну в Центральной Америке. ChatGPT ответил, что это Гватемала, хотя правильный ответ — Никарагуа[21]. В декабре 2022 года веб-сайт вопросов и ответов Stack Overflow запретил использование ChatGPT для генерации ответов на вопросы, сославшись на фактически неоднозначный характер ответов ChatGPT[22]. Экономист Тайлер Коуэн выразил обеспокоенность по поводу его влияния на демократию, сославшись на способность любого человека писать автоматические комментарии в попытке повлиять на процесс принятия новых нормативных актов[23]. Акс Шарма из Bleeping Computer отметил, что ChatGPT способен писать вредоносные программы и фишинговые электронные письма[24].
ChatGPT также ничего не знает о событиях, происходящих после 2021 года, потому что он не обучается на наборах данных, собранных после этой даты.[25]
Из-за опасений по поводу негативного воздействия на обучение, а также опасений по поводу безопасности и точности генерируемого системой контента, доступ к ChatGPT ограничен в сетях и на устройствах государственных школ Нью-Йорка[26].
На популярность нейросети OpenAI отреагировали крупнейшие технологические корпорации: Google объявили о начале тестирования своего чат-бота Bard[27]; Microsoft встроила ChatGPT в строку поиска Bing[28].
Крупнейшим IT-компаниям Китая, несмотря на официальный запрет, было предписано не использовать ChatGPT в своих продуктах. Государственная China Daily сообщила, что чат-бот может способствовать распространению информации в геополитических интересах США[29].
Сервисы OpenAI легально недоступны пользователям из России. Однако использование подходящих VPN и сервисов по аренде телефонных номеров, принадлежащих по телефонному коду другим странам, позволяет получить доступ к сервису[30].
Статья ChatGPT в русской Википедии заняла в местном рейтинге популярности следующие места:
Представленный контент статьи из Википедии был извлечен 2023-03-20 на основе https://ru.wikipedia.org/?curid=9999814