Российский государственный гуманитарный университет (РГГУ) проводит проверку в отношении студента Александра Жадана, который написал диплом «Анализ и совершенствование управления игровой организацией» с помощью нейросети. Об этом он сам рассказал «Коммерсантъ FM».
<strong>Российский государственный гуманитарный университет (РГГУ) проводит проверку в отношении студента Александра Жадана, который написал диплом «Анализ и совершенствование управления игровой организацией» с помощью нейросети.
Об этом он сам <a href="https://t.me/kfm936/16169" target="_blank" rel="noopener">рассказал</a> «Коммерсантъ FM».</strong>По словам Жадана, он не хотел писать дипломную работу самостоятельно, поскольку «это занимает очень много времени», а платить за ее написание кому-то другому — «не его формат». «Я подумал, что было бы здорово сделать алгоритм, как создать эту работу, и это вышло с помощью ChatGPT», — пояснил студент. <div class="intext-box">
Чат-бот ChatGPT был запущен компанией OpenAI в ноябре 2022 года. Он способен генерировать тексты, отвечать на вопросы и писать код.
</div> На создание текста ушли 23 часа — 15 часов на «написание» и девять часов на редактирование, а последующая проверка на антиплагиат показала уровень оригинальности в 82%, утверждает Жадан.
«Введение и теоретическую часть я смог написать с помощью ChatGPT, исходя из запросов. Для второй и третьей части, где мне нужно было осветить, что я делал непосредственно в организации, я комбинировал с другой работой, чтобы можно было основываться на чей-то текст. Также я больше рассказывал про свою организацию, основываясь на том, как рассказывали другие люди по такой же теме о другой организации», — рассказал он.
Жадан признал, что научный руководитель указал ему на «несвязность» текста и необходимость «дорабатывать русский язык», поэтому работу пришлось дополнительно редактировать. К защите он успел это сделать. <div class="intext-grey">
«На защите я больше рассказывал короткую версию этого диплома, и там просто задавали вопросы по организации. <...> Я достаточно спокойно выступил, в конце ответил на вопросы и получил "удовлетворительно"», — отметил студент.
</div> Однако, по его словам, после защиты в РГГУ «начали поступать жалобы» с требованием аннулировать диплом, написанный с использованием нейросети. «Я еду в университет, чтобы с ними поговорить, обсудить, что будет дальше», — сообщил Жадан, добавив, что в отношении него в вузе начали проверку.
Кроме того, как <a href="https://tass.ru/obschestvo/16937425" target="_blank" rel="noopener">сообщает</a> ТАСС, в РГГУ предложили ограничить доступ к чат-боту ChatGPT, с помощью которого был написан диплом. <div class="intext-grey">
«Из-за опасений по поводу негативного воздействия на обучение, а также опасений по поводу безопасности и точности генерируемого системой контента, может быть целесообразно ограничить доступ к ChatGPT в образовательных организациях», — пояснили в пресс-службе вуза.
</div> Этот случай может создать прецедент для серьезного разбирательства, <a href="https://news.ru/society/advokat-nazval-posledstviya-zashity-v-rggu-napisannogo-nejrosetyu-diploma/" target="_blank" rel="noopener">заявил</a> NEWS.ru адвокат Вадим Багатурия. Он считает, что студента можно привлечь к ответственности за злоупотребление доверием. «Формально он ничего [плохого] не сделал. С другой стороны, это не его труд. Склоняюсь к тому, что в РГГУ соберут комиссию, и она с вероятностью больше 50% проголосует либо за отчисление, либо за пересдачу», — сказал юрист.
Однако, по его словам, если студент подтвердил дипломную работу собственными знаниями во время защиты, а уровень плагиата в ней низкий, то можно рассматривать нейросеть в данном случае как «вспомогательный механизм».
В свою очередь первый зампредседателя комитета Госдумы по науке и высшему образованию Олег Смолин в разговоре с NEWS.ru <a href="https://news.ru/vlast/v-gosdume-nashli-sposob-zashitit-diplomy-ot-nejrosetej/">призвал</a> обучить выявлению текстов нейросети систему проверки уникальности текстов «Антиплагиат». Он считает, что скоро этот вопрос станет очень актуальным.
Свежие комментарии