С конца 2017 года дипфейки стали постепенно приходить в повседневную жизнь людей. В интернете начали появляется поддельные видео с известными личностями, созданные с помощью искусственного интеллекта.
Одним из жертв дипфейков стал британский врач Хилари Джонс, чей образ использовали в поддельном рекламном ролике. В нем доктор рекламировал фальшивый чудо-препарат для лечения серьезных заболеваний. На самом деле Джонс не имел никакого отношения к этому видео, которое было создано технологиями ИИ.
В 2019 году в Израиле специалисты создали поддельные КТ-сканы с добавленными или удаленными опухолями. Даже опытные рентгенологи ошибочно диагностировали 99% КТ-сканов с добавленными опухолями как злокачественные и 94% КТ-сканов с удаленными опухолями как здоровые. Даже после предупреждения о возможном редактировании, они неверно диагностировали большую часть поддельных изображений.
Однако, несмотря на потенциальные угрозы, использование технологии дипфейков в медицине и науке также открывает новые возможности. Поддельные данные могут применяться для обучения и тренировки медицинского персонала без риска для реальных пациентов, а технология распознавания эмоций на основе лиц может помочь в повышении эмпатии врачей и защите конфиденциальности пациентов.