Humana использовала ИИ с коэффициентом ошибок 90% для отказа в уходе за пожилыми
Судебный иск раскрывает скандал в сфере здравоохранения© Ferra.ru / Kandinsky 3
В иске, поданном в Кентукки, использование компанией Humana модели искусственного интеллекта названо «мошеннической схемой» и утверждается, что она ставит под угрозу здоровье и финансы пожилых людей, в результате чего они оказываются обремененными медицинскими долгами или лишенными необходимой медицинской помощи.
В иске, требующем статуса коллективного иска, утверждается, что модель искусственного интеллекта компании Humana, известная как nH Predict, используется для прогнозирования потребностей пациентов в постреанимационном уходе и определения точных дат прекращения выплат. Утверждается, что эта несовершенная модель не учитывает общие обстоятельства пациентов, рекомендации врачей и фактические условия, что приводит к плохим прогнозам.
Утверждается, что Humana ставит финансовую выгоду выше точных решений в области здравоохранения, полагаясь на ограниченность ресурсов и неосведомленность пациентов, чтобы поддержать неправомерные отказы.