Изследователи от Оксфордския интернет институт предупреждават за тревожната тенденция на големите езикови модели (LLM), използвани в чатботове, да халюцинират. Тези модели са в състояние да генерират невярно съдържание и да го представят като точно, което представлява пряка заплаха за науката и научната истина.
Статията, публикувана в Nature Human Behavior, подчертава, че LLM са предназначени да дават полезни и убедителни отговори без никакви гаранции по отношение на тяхната точност или съответствие с фактите. Понастоящем LLM се третират като източници на знания и се използват за генериране на информация в отговор на въпроси или подкани, но данните, върху които се обучават, може да не са фактически верни.
Една от причините за това е, че LLM често използват онлайн източници, които могат да съдържат неверни твърдения, мнения и неточна информация. Потребителите често се доверяват на LLM като на човекоподобен източник на информация, поради техния дизайн като полезни, човешки звучащи агенти. Това може да накара потребителите да вярват, че отговорите са точни, дори когато нямат фактическа основа или представят пристрастна или частична версия на истината.
Изследователите подчертават значението на точността на информацията в науката и образованието и призовават научната общност да използва LLM като „нулеви преводачи“. Това означава, че потребителите трябва да предоставят на модела подходящите данни и да го помолят да ги трансформира в заключение или код, вместо да разчитат на самия модел като източник на знания. Този подход улеснява проверката дали изходът е фактически правилен и съобразен с предоставения вход.
Докато LLM несъмнено ще подпомогнат научните работни потоци, за научната общност е изключително важно да ги използва отговорно и да поддържа ясни очаквания за това как могат да допринесат.