Приемлемость решений ИИ

Решения, принимаемые искусственным интеллектом, с учетом их низкой, а зачастую и нулевой интерпретируемости, устраивают нас до тех пор, пока они нам нравятся. Если решение, не устраивающее большинство, будет принято в пользу одного бенефициара, мы, возможно, заподозрим его интерес. А если решение будет принято во вред всем? ForksГотовы мы будем его принять лишь потому, что это сделала система ИИ, которой мы согласились доверять? От того, что система долго входила в доверие, принимая нравящиеся нам решения, будем ли мы склонны доверять ей больше? Если в каком-то случае результаты принятого решения можно «откатить» (например, расторгнуть автоматически сформированную сделку и вернуть деньги пострадавшим), готовы ли мы это сделать и тем разрушить сформированную систему, построенную на доверии? А если откат невозможен? Если в результате принятого решения нанесен невосполнимый ущерб (например, произошла авария или разрушена работавшая конструкция), готовы ли мы будем продолжать эксплуатацию, считая случившееся злосчастным происшествием, и дожидаться следующего, возможно еще худшего события? Каждый из нас, оказавшись волею судьбы на скамье подсудимых, предпочел бы, чтобы его судьбу решала группа живых людей с их известными слабостями и недостатками, или бесстрастная система судебного ИИ? Решение, которое покажется нам несправедливым, мы сочтем ударом судьбы или воплощением объективности Фемиды? Готовы ли мы в ответах на эти вопросы полагаться на вероятностные оценки?

Источник: VK.com

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *