Всемирная организация здравоохранения требует внимательно отнестись к использованию инструментов больших языковых моделей (LLM), созданных искусственным интеллектом. Этот осторожный подход направлен на защиту и укрепление человеческого благополучия, безопасности, автономии и сохранения общественного здоровья.
Большие языковые модели, такие как ChatGPT, Bard, Bert и другие, представляют собой быстрорастущие платформы, которые набирают популярность и все чаще используются в целях, связанных со здоровьем. Как отмечается в обращении ВОЗ, растет также интерес к их способности удовлетворять потребности людей в области здравоохранения.
В своем заявлении организация подчеркивает, что поспешное внедрение непроверенных систем может привести к ошибкам со стороны медицинских работников, причинить вред пациентам, подорвать доверие к ИИ и отсрочить потенциальные преимущества и долгосрочное использование таких технологий во всем мире.
Какие риски, по мнению ВОЗ, возникают при использовании искусственного интеллекта?
- Использование необъективных данных при обучении систем ИИ может привести к созданию вводящей в заблуждение или ошибочной информации, тем самым создавая риски для здоровья.
- LLM выдают ответы, которые могут производить впечатление авторитетных и правдоподобных для пользователей. Однако важно отметить, что эти ответы могут быть совершенно неверными или содержать серьезные ошибки, особенно когда речь идет о информации, связанной со здоровьем.
- LLM могут обучаться на данных без предварительного согласия для их использования, то есть они не обеспечивают защиту конфиденциальных данных, включая информацию о состоянии здоровья, которую пользователи предоставляют для получения ответа.
- LLM могут быть использованы для создания и распространения убедительной дезинформации (текст, аудио или видеоконтент). Это может создать проблемы для широкой публики в отличии такого контента от надежной медицинской информации.
В своем заявлении Всемирная организация здравоохранения предложила принципы этики и управления искусственным интеллектом, которые необходимы для здоровья:
- Защита автономии.
- Содействовать благополучию людей, их безопасности и общественным интересам.
- Обеспечить прозрачность, объяснимость и понятность.
- Воспитывать ответственность и подотчетность.
- Обеспечить инклюзивность и справедливость.
- Продвигать ИИ, который является гибким и устойчивым.
Специалисты в области здравоохранения уже используют искусственный интеллект для своих задач. Так, в России при помощи ИИ начали выявлять сколиоз позвоночника на рентгене. «В общей сложности нейросети помогли врачам проанализировать больше 8,5 миллиона снимков лучевых исследований. Наши ученые разработали требования к умным алгоритмам и внедрили методику тестирования нейросетей. Теперь умные алгоритмы в режиме реального времени выявляют патологии различных заболеваний», — заявил мэр Москвы Сергей Собянин.
Фонд «Не напрасно» использовал ChatGPT, чтобы рассказать о современных способах профилактики и скрининга онкозаболеваний. При помощи искусственного интеллекта были созданы нейрофольклорные песни, которые позволяют переосмыслить опыт лечения заболеваний в прошлом и напоминают о современных методах борьбы против рака.
Израильская медицинская компания Genetika+ с помощью ИИ анализирует данные пациент для того, чтобы определить наиболее подходящие антидепрессанты и дозировку. Целью такого подхода является предотвращение нежелательных побочных эффектов и обеспечение оптимальной эффективности назначенных лекарств.
Исследователи из Стэнфорда, в свою очередь, разрабатывают новую технологию, которая с помощью искусственного интеллекта позволит врачам быстро просматривать всю медицинскую карту пациента, если возникают различные сложности во время операции. Медицинский ассистент с искусственным интеллектом также будет обеспечивать звуковое чтение соответствующей медицинской литературы, когда хирурги сталкиваются с необычным анатомическим явлением.
Комментарии (0)