Будет ли ИИ расистом?
------///------
Интересно, будет ли ИИ расистом, сексистом и т.п.? Не потому, разумеется, что у него будут какие-то предрассудки, а чисто из холодной рациональности, «по Байесу»?
Простой пример. Допустим, надо определить, виновен ли подозреваемый. Мы чтим презумпцию невиновности и диктуем ИИ, чтобы он выносил обвинительный приговор при вероятности вины, например, более 80%. ИИ смотрит по 34 параметрам и пока что вероятность вины ровно 80%. Но вот он учитывает параметр №35, что подозреваемый – негр, и при этом негры совершают преступления чаще. С учетом этого параметра вероятность, например, становится 81%, и чувак идет в тюрьму. При ровно тех же уликах белый не идет. А если еще учесть, что подозреваемый – мужчина, вероятность уже, например, 85% (вот и сексизм, пожалуйста).
Это рационально, или нас что-то смущает? Улика сильно не прямая? Но вот смотрите, собеседование на работу. Нужно оценить деловые качества кандидата. Наниматель колеблется, для него пока что 50/50. Но вот вводится еще один параметр, «оконченный вуз», и выпускника МГУ берут, а выпускника Лесоинженерной Академии Запендюйска – нет. Это тоже не прямой параметр. Оконченный вуз не имеет прямого отношения к деловым качествам. Но при прочих равных один вуз все-таки лучше говорит о человеке, нежели другой, разве нет? В случае пола, возраста, расы, религии, национальности – это для холодного интеллекта будут те же самые вероятностные свидетельства.
Если их не учитывать, то… тоже получится дискриминация, кстати. Если Х совершают преступления чаще Z, но мы запрещаем смотреть на принадлежность к категории Х как параметр обвинения, то в тюрьму, например, может попасть 68% совершивших преступления Х, и 72% совершивших преступления Z, потому что мы отказываемся учитывать всю полноту информации. Принадлежность к иксам начнет выступать как привилегия.
То есть получается, что та или иная «дискриминация» будет в обоих случаях. Придется выбирать, какая хуже.
Интересно, будет ли ИИ расистом, сексистом и т.п.? Не потому, разумеется, что у него будут какие-то предрассудки, а чисто из холодной рациональности, «по Байесу»?
Простой пример. Допустим, надо определить, виновен ли подозреваемый. Мы чтим презумпцию невиновности и диктуем ИИ, чтобы он выносил обвинительный приговор при вероятности вины, например, более 80%. ИИ смотрит по 34 параметрам и пока что вероятность вины ровно 80%. Но вот он учитывает параметр №35, что подозреваемый – негр, и при этом негры совершают преступления чаще. С учетом этого параметра вероятность, например, становится 81%, и чувак идет в тюрьму. При ровно тех же уликах белый не идет. А если еще учесть, что подозреваемый – мужчина, вероятность уже, например, 85% (вот и сексизм, пожалуйста).
Это рационально, или нас что-то смущает? Улика сильно не прямая? Но вот смотрите, собеседование на работу. Нужно оценить деловые качества кандидата. Наниматель колеблется, для него пока что 50/50. Но вот вводится еще один параметр, «оконченный вуз», и выпускника МГУ берут, а выпускника Лесоинженерной Академии Запендюйска – нет. Это тоже не прямой параметр. Оконченный вуз не имеет прямого отношения к деловым качествам. Но при прочих равных один вуз все-таки лучше говорит о человеке, нежели другой, разве нет? В случае пола, возраста, расы, религии, национальности – это для холодного интеллекта будут те же самые вероятностные свидетельства.
Если их не учитывать, то… тоже получится дискриминация, кстати. Если Х совершают преступления чаще Z, но мы запрещаем смотреть на принадлежность к категории Х как параметр обвинения, то в тюрьму, например, может попасть 68% совершивших преступления Х, и 72% совершивших преступления Z, потому что мы отказываемся учитывать всю полноту информации. Принадлежность к иксам начнет выступать как привилегия.
То есть получается, что та или иная «дискриминация» будет в обоих случаях. Придется выбирать, какая хуже.