OpenAI финансирует научные исследования алгоритмов, способных предсказывать моральные суждения людей. Об этом пишет TechCrunch со ссылкой на поданное в IRS заявление.
Стартап выделил грант исследователям Университета Дьюка на проект под названием «Исследование ИИ-морали».
Подробностей о работе мало, а главный исследователь Уолтер Синнотт-Армстронг отказался комментировать достижения. Грант заканчивается в 2025 году.
Ранее Синнотт-Армстронг и другая участница проекта Яна Борг написали книгу о потенциале ИИ в качестве «морального GPS», помогающего людям принимать более обоснованные решения.
Вместе с другими командами они создали «морально ориентированный» алгоритм, помогающий решать, кому лучше отдать донорские почки. Также они оценили ситуации, когда люди предпочли бы делегировать ИИ принятие решения.
Цель финансируемой OpenAI работы заключается в обучении алгоритмов для «предсказаний моральных суждений человека» в ситуациях, вызывающих конфликты в медицинской, правовой и деловой сферах.
Напомним, стартап Сэма Альтмана готовится к запуску ИИ-агента под кодовым названием «Оператор».
Нашли ошибку в тексте? Выделите ее и нажмите CTRL+ENTER
Рассылки ForkLog: держите руку на пульсе биткоин-индустрии!
Источник: forklog.com
Обсуждение: post