
Sign up to save your podcasts
Or
Чат-боты с искусственным интеллектом могут вызывать ложные воспоминания. Это ошеломляющее откровение, в которое погружается Джим Картер в этом эпизоде "The Prompt."
Джим делится прорывным исследованием MIT и Калифорнийского университета в Ирвайне, которое показало, что чат-боты на базе ИИ могут создавать ложные воспоминания у пользователей. Представьте себе, что вы стали свидетелем преступления, а потом чат-бот ввел вас в заблуждение, заставив поверить в вещи, которые никогда не происходили. Страшно, правда?
В исследовании участвовало 200 человек, которые смотрели немое видео с камер видеонаблюдения вооруженного ограбления. Их разделили на четыре группы: контрольную группу, опрос с вводящими в заблуждение вопросами, заранее прописанный чат-бот и генеративный чат-бот, использующий модель большого языка.
Результаты? Генеративный чат-бот вызвал почти в три раза больше ложных воспоминаний по сравнению с контрольной группой. Что еще более удивительно, 36% ответов пользователей на генеративный чат-бот были ошибочными, и эти ложные воспоминания сохранялись не менее недели!
Джим исследует, почему некоторые люди более восприимчивы к таким ложным воспоминаниям, вызванным ИИ. Оказывается, люди, которые знакомы с ИИ, но не с чат-ботами, более склонны быть введенными в заблуждение. Кроме того, те, кто интересуется расследованием преступлений, более уязвимы, вероятно, из-за их высокой вовлеченности и обработки дезинформации.
Так почему же чат-боты "галлюцинируют" или генерируют ложную информацию? Джим объясняет ограничения и предвзятости в учебных данных, переобучение и природу моделей большого языка, которые отдают приоритет правдоподобным ответам, а не фактической точности. Эти галлюцинации могут распространять дезинформацию, подрывать доверие к ИИ и даже вызывать юридические проблемы.
Но не волнуйтесь, Джим не оставляет нас в подвешенном состоянии. Он делится практическими шагами по минимизации этих рисков, такими как улучшение качества учебных данных, комбинирование языковых моделей с системами проверки фактов и разработка систем обнаружения галлюцинаций.
Хотите быть в курсе последних достижений ИИ? Присоединяйтесь к группе Джима Fast Foundations в Slack, чтобы обсуждать эти критические вопросы и работать над ответственным развитием ИИ. Переходите на fastfoundations.com/slack, чтобы стать частью этого разговора.
Помните, у нас есть сила формировать будущее ИИ, так что давайте продолжим диалог, один запрос за раз.
---
Этот эпизод и весь подкаст создается с помощью искусственного интеллекта (ИИ) специалистом Джимом Картером. Джим не говорит по-русски! Это его подкаст и эксперимент, и он благодарен за вашу поддержку.
Пожалуйста, оставьте отзыв в 5 звезд и поделитесь им с другом.
Он публично делится своими наработками, и вы можете узнать, как сделать это для себя и своей компании, присоединившись к его частной Slack-сообществу на https://fastfoundations.com/slack.
Свяжитесь с Джимом и узнайте больше о нем на https://jimcarter.me.
Чат-боты с искусственным интеллектом могут вызывать ложные воспоминания. Это ошеломляющее откровение, в которое погружается Джим Картер в этом эпизоде "The Prompt."
Джим делится прорывным исследованием MIT и Калифорнийского университета в Ирвайне, которое показало, что чат-боты на базе ИИ могут создавать ложные воспоминания у пользователей. Представьте себе, что вы стали свидетелем преступления, а потом чат-бот ввел вас в заблуждение, заставив поверить в вещи, которые никогда не происходили. Страшно, правда?
В исследовании участвовало 200 человек, которые смотрели немое видео с камер видеонаблюдения вооруженного ограбления. Их разделили на четыре группы: контрольную группу, опрос с вводящими в заблуждение вопросами, заранее прописанный чат-бот и генеративный чат-бот, использующий модель большого языка.
Результаты? Генеративный чат-бот вызвал почти в три раза больше ложных воспоминаний по сравнению с контрольной группой. Что еще более удивительно, 36% ответов пользователей на генеративный чат-бот были ошибочными, и эти ложные воспоминания сохранялись не менее недели!
Джим исследует, почему некоторые люди более восприимчивы к таким ложным воспоминаниям, вызванным ИИ. Оказывается, люди, которые знакомы с ИИ, но не с чат-ботами, более склонны быть введенными в заблуждение. Кроме того, те, кто интересуется расследованием преступлений, более уязвимы, вероятно, из-за их высокой вовлеченности и обработки дезинформации.
Так почему же чат-боты "галлюцинируют" или генерируют ложную информацию? Джим объясняет ограничения и предвзятости в учебных данных, переобучение и природу моделей большого языка, которые отдают приоритет правдоподобным ответам, а не фактической точности. Эти галлюцинации могут распространять дезинформацию, подрывать доверие к ИИ и даже вызывать юридические проблемы.
Но не волнуйтесь, Джим не оставляет нас в подвешенном состоянии. Он делится практическими шагами по минимизации этих рисков, такими как улучшение качества учебных данных, комбинирование языковых моделей с системами проверки фактов и разработка систем обнаружения галлюцинаций.
Хотите быть в курсе последних достижений ИИ? Присоединяйтесь к группе Джима Fast Foundations в Slack, чтобы обсуждать эти критические вопросы и работать над ответственным развитием ИИ. Переходите на fastfoundations.com/slack, чтобы стать частью этого разговора.
Помните, у нас есть сила формировать будущее ИИ, так что давайте продолжим диалог, один запрос за раз.
---
Этот эпизод и весь подкаст создается с помощью искусственного интеллекта (ИИ) специалистом Джимом Картером. Джим не говорит по-русски! Это его подкаст и эксперимент, и он благодарен за вашу поддержку.
Пожалуйста, оставьте отзыв в 5 звезд и поделитесь им с другом.
Он публично делится своими наработками, и вы можете узнать, как сделать это для себя и своей компании, присоединившись к его частной Slack-сообществу на https://fastfoundations.com/slack.
Свяжитесь с Джимом и узнайте больше о нем на https://jimcarter.me.