Новая разработка помешает ИИ притвориться человеком

Эффективность чат-бота ChatGPT в генерации связных ответов на вопросы, эссе и других текстов заставила его создателей – компанию OpenAI – начать работу над инструментом для выявления подобных материалов.

В официальном блоге OpenAI говорится, что компания создает алгоритм-классификатор, который сможет определить текст как сгенерированный нейросетями, когда его пытаются выдать за созданный человеком.

Это может пригодится для борьбы с массовыми кампаниями дезинформации в интернете, чтобы ловить пытающихся жульничать школьников и студентов или выявлять чат-ботов, притворяющихся людьми. Разработку выложили в открытый доступ, чтобы набрать отзывы пользователей и совершенствовать ее дальше.

В настоящий момент система довольно несовершенна. В OpenAI говорят, что она пока малоэффективна для текстов короче 1000 знаков, однако чем текст длиннее, тем точность работы алгоритма выше. Пока он может выдавать как ложноотрицательные, так и ложноположительные результаты.

Ранее сообщалось, что чат-бот ChatGPT успешно ответил на большинство экзаменационных вопросов курса MBA престижной американской бизнес-школы.

Подписывайтесь на наши страницы в соцсетях:
"Смотрим"ВКонтакте, Одноклассники, Дзен и Telegram
Вести.RuВКонтакте, Одноклассники, Дзен и Telegram.