Алгоритмы предлагают нам порой довольно ненавязчивые решения – например, подсказки "это может быть вам интересно" на Netflix. Но все становится намного сложнее, когда компании и правительства используют технологии искусственного интеллекта (ИИ) и машинного обучения для принятия влияющих на нашу жизнь решений, а мы об этом даже не догадываемся. Что еще хуже, у нас даже нет возможности обжаловать эти решения.
Люди, использующие такие технологии, считают их почти безошибочными. Банки и другие кредитные учреждения определяют ваш кредитный рейтинг, компании и рекрутеры оценивают, стоит ли нанять вас на работу, а ваш страховой агент рассчитывает стоимость вашей страховки на основе решений, принимаемых искусственным интеллектом.
"Оценивая, какую роль играют алгоритмы в принятии решений, мы должны рассматривать не только те случаи, когда именно алгоритмы становится окончательными и полновластными арбитрами, но также и те ситуации, когда алгоритмы играют важную роль в формировании процесса принятия решений, даже если окончательное решение принимается людьми".
Но многие из этих программ изначально созданы так, чтобы предвзято оценивать информацию. Джой Буоламвини, основательница Лиги алгоритмического правосудия, называет это "закодированной точкой зрения". Это предубеждение, которое способствует сохранению несправедливости, а также провоцирует фатализм: у людей возникает ощущение, что они бессильны и не могут выходить за рамки того, что они уже делают в этом управляемым искусственным интеллектом мире.
"Очевидно, что все более широкое использование алгоритмов для принятия решений, предлагающих возможности, которые способствуют повышению эффективности, связано со все возрастающим риском принятия несправедливых или дискриминационных решений", – предупреждает она. Пол, раса, принадлежность к какой-то этнической группе и даже местоположение могут привести к тому, что целое сообщество людей не будет получать преимуществ и окажется в неблагоприятном положении.
Проще говоря, алгоритмы могут принимать расистские решения. Как сказала член Палаты представителей США Александрия Окасио-Кортес, в алгоритмах "всегда заложено расовое неравенство, потому что алгоритмы до сих пор создаются людьми, которые вкладывают в них свои представления. Они просто автоматизированы. А автоматизированные представления – если вы не сделаете поправку на предвзятость – только автоматизируют предвзятое отношение".
Ситуация делается все хуже и хуже с каждым новым алгоритмом. Алгоритмы работают намного быстрее и затрагивают гораздо большее число людей – и это происходит гораздо чаще, чем, скажем, это было со старыми законами о расовой сегрегации в США.
Эта предвзятость алгоритмов – как обнаружила Джой Буоламвини, просматривая демоверсию "социального робота", созданного стартапом из Гонконга, который не смог распознать ее лицо, – "распространяется со скоростью загрузки файлов из интернета".
Стартап использовал ту же самую универсальную программу для распознавания лиц, с которой Буоламвини уже имела дело, готовя дипломную работу в Технологическом институте Джорджии. Тогда она обнаружила, что эта программа не распознает ее лица. Чернокожей Буоламвини пришлось попросить свою (белую) соседку встать перед экраном вместо нее. В то время, находясь в другой части мира, она думала, что "кто-нибудь это исправит". После поездки в Гонконг она поняла, что сама должна стать этим кем-то (превосходное краткое изложение того, как происходит смещение алгоритма, можно найти в этой статье Карен Хао).
Что же мы можем сделать с предвзятостью в алгоритме? Разработчики программного обеспечения и специалисты по обработке и анализу данных IBM Research предлагают набор инструментов на основе открытого исходного кода, который поможет проверить, есть ли предвзятость в ваших основанных на данных моделях.
Но не только технические специалисты могут сделать что-то для исправления ситуации с предвзятостью алгоритмов. Вы можете начать исследовать свое цифровое пространство, уделяя внимание тому, какие технологические услуги вы выбираете. Например, использовать такие поисковые системы, как DuckDuckGo, потому что, в отличие от ненасытного вампира данных – Google, этот сервис не хранит вашу личную информацию и не использует ее для целевой рекламы.
Вы также можете отправлять петиции и требовать от вашего правительства, чтобы оно приняло правила, обеспечивающие подотчетность в отношении алгоритмов и политику прозрачности – где под "алгоритмической грамотностью", в частности, понимается необходимость ввести стандартные уведомления (сообщения о том, как и в какой степени алгоритм был использован при принятии решений).
В конечном счете нам нужно больше требовать и от самих себя, и от технологических компаний. Просто критического мышления недостаточно: в том, как мы создаем и используем технологии, нам необходимо опираться на гражданское мышление.
Использованная в этой статье информация почерпнута из данных проекта Unbias Project, в последние два года исследующего тему предвзятости алгоритмических систем.
Эта статья была опубликована на сайте Daily Maverick. Используется IJNet с разрешения.
Дэвид Лемаян – стипендиат программы ICFJ Knight с 2016 года и глава отдела технологий нашей партнерской организации Code for Africa.
Источник основной фотографии Rock'n Roll Monkey, лицензия CC сайта Unsplash.