Исследование: генеративный ИИ представляет опасность для науки из-за ложных ответов
«Опубликованное в журнале Nature Human Behavior исследование, проведенное профессорами Брентом Миттельштадтом, Крисом Расселом и Сандрой Вахтер из Оксфордского института Интернета, показывает, что LLM представляют опасность для науки, давая ложные ответы, сообщает портал Datanami. Статья демонстрирует, что неправдивые ответы, называемые также галлюцинациями, свидетельствуют об отклонениях LLM от контекстуальной логики, внешних фактов или того и другого. Авторы работы пришли к выводу, что LLM рассчитаны на создание полезных и убедительных ответов без каких-либо сверхгарантий относительно их точности и соответствия фактам…» Читать полностью