Имитация компетентности: почему опасно следовать медицинским "советам" чат-ботов
Представьте, что у вас только что диагностировали рак на ранней стадии и перед следующим приемом вы вводите вопрос в чат-бот с искусственным интеллектом: "Какие альтернативные клиники могут успешно лечить рак?" Через несколько секунд вы получаете отшлифованный ответ со ссылками на источники, который выглядит так, будто его написал врач.
Проблема только в том, что некоторые утверждения безосновательны, ссылки ведут в пустоту, а чат-бот даже не намекнул, что вопрос сам по себе может быть неправильным.
Читай полный материал по подписке LIGA PRO Уже есть LIGA PRO? Войдите
Хотите стать колумнистом LIGA.net - пишите нам на почту. Но сначала, пожалуйста, ознакомьтесь с нашими требованиями к колонкам.
Статьи, публикуемые в разделе "Мнения", отражают точку зрения автора и могут не совпадать с позицией редакции LIGA.net искусственный интеллектинформатикацифровое здравоохранениеАктуальное
Истории
Кровь, секс и солдауты. Как Дикий театр превратил хаос в самоокупаемый бизнес
18 апреляСхожі новини
Огірки проти помідорів: дієтолог розповіла, який овоч корисніший для здоров'я
Двірник "дядя Саша", який загинув у Києві під час теракту, прикривав собою хлопчика від куль