Исследование: можно ли вы доверять ChatGPT в написании научных работ

С момента своего запуска в ноябре 2022 года ChatGPT, ультрасовременная языковая модель, разработанная OpenAI, Лос-Анджелес, Сан-Франциско, Калифорния, США, привлекла внимание научного сообщества.

Поскольку дебаты о влиянии ChatGPT на все аспекты академической жизни разгораются по всему миру, команда из Университета ветеринарной медицины Ганновера, Германия, возглавляет проект с многочисленными международными партнерами по изучению потенциальных ограничений и преимуществ, связанных с применением ChatGPT в написании научных работ.

Это исследование, озаглавленное «ChatGPT и научные статьи по ветеринарной неврологии: выпущен ли джинн из бутылки?» публикация в журнале «Границы ветеринарной науки», раздел «Ветеринарная неврология и нейрохирургия», исследует возможности ChatGPT в создании научных работ в области ветеринарной неврологии.

Тезисы и вводные разделы, включая ссылки, для трех различных оригинальных исследовательских работ и статей, сгенерированных ChatGPT в области ветеринарной неврологии, оценивались с помощью детекторов вывода искусственного интеллекта и плагиата. Тринадцати сертифицированным неврологам также было предложено определить оригинальность и достоверность содержания.

«Мы очень рады, что эта работа опубликована в начале учебного года. Как и любая другая технология, такой инструмент искусственного интеллекта, как ChatGPT, может либо представлять угрозу научной целостности и прозрачности, либо помогать исследователям, в зависимости от того, как они используются. Я настоятельно рекомендую интегрировать обучение как правильному использованию, так и потенциальному неправильному использованию инструментов на основе искусственного интеллекта в академических кругах как фундаментальный аспект надлежащей научной практики «, — говорит Самира Абани, первый автор из Университета ветеринарной медицины Ганновера.

Жасмин Несслер, автор-корреспондент из Университета ветеринарной медицины Ганновера, комментирует: «Мы считаем, что популярность искусственного интеллекта требует междисциплинарного научного сотрудничества для установления четких руководящих принципов его ответственного использования, обеспечения целостности и прозрачности публикуемой литературы. Запрет инструментов искусственного интеллекта не всегда может быть наиболее эффективным подходом к предотвращению неправильного использования; вместо этого мы должны воспользоваться этой возможностью, чтобы использовать потенциал искусственного интеллекта на благо общества».

«Мы узнали, что большие языковые модели (LLM), такие как ChatGPT, обучены имитировать человеческий стиль письма и создавать связные, правдоподобно звучащие тексты, которые иногда могут обмануть экспертов-людей. Однако модели, подобные ChatGPT, склонны к галлюцинациям и могут генерировать предвзятый контент», — добавил профессор Хольгер Волк, руководитель клиники для мелких животных Университета ветеринарной медицины Ганновера.

«Это вызывает опасения относительно добросовестности использования таких моделей в академическом написании — мы должны помнить, что, несмотря на недавние достижения, нам следует скептически относиться к тому, чтобы полностью полагаться на ChatGPT или любые инструменты искусственного интеллекта, по крайней мере, на данный момент».