Топ-100

В будущем ИИ может помочь в лечении людей

С конца 2017 года дипфейки стали постепенно приходить в повседневную жизнь людей. В интернете начали появляется поддельные видео с известными личностями, созданные с помощью искусственного интеллекта.

Одним из жертв дипфейков стал британский врач Хилари Джонс, чей образ использовали в поддельном рекламном ролике. В нем доктор рекламировал фальшивый чудо-препарат для лечения серьезных заболеваний. На самом деле Джонс не имел никакого отношения к этому видео, которое было создано технологиями ИИ.

В 2019 году в Израиле специалисты создали поддельные КТ-сканы с добавленными или удаленными опухолями. Даже опытные рентгенологи ошибочно диагностировали 99% КТ-сканов с добавленными опухолями как злокачественные и 94% КТ-сканов с удаленными опухолями как здоровые. Даже после предупреждения о возможном редактировании, они неверно диагностировали большую часть поддельных изображений.

Однако, несмотря на потенциальные угрозы, использование технологии дипфейков в медицине и науке также открывает новые возможности. Поддельные данные могут применяться для обучения и тренировки медицинского персонала без риска для реальных пациентов, а технология распознавания эмоций на основе лиц может помочь в повышении эмпатии врачей и защите конфиденциальности пациентов.

Марк Цукерберг раскритиковал ИИ-проекты с закрытым кодом

В Будущем котлы ТЭС будет разжигать ИИ

Генная терапия может помочь людям вернуть зрение