Привить правительственным инженерам ИИ этику ИИ считается непростой задачей

Привить правительственным инженерам ИИ этику ИИ считается непростой задачей



Привить правительственным инженерам ИИ этику ИИ считается непростой задачей

Джон П. Десмонд, редактор AI Trends

Инженеры видят вещи в резких терминах, которые некоторые могут назвать черно-белыми, например, выбор между правильным и неправильным, хорошим и плохим. Идея этики в ИИ очень тонкая, с обширными «серыми зонами», из-за чего разработчикам программного обеспечения ИИ сложно применять ее в своей работе.

Это отрывок из сессии, посвященной будущим стандартам и этическому ИИ. Мировое Правительство ИИ Конференция прошла очно и виртуально на этой неделе в Александрии, штат Вирджиния.

Общее впечатление от конференции таково, что дискуссии об искусственном интеллекте и этике происходят почти каждый квартал в рамках огромного предприятия федерального правительства, и во всех этих отдельных и независимых усилиях наблюдается последовательность в точках зрения.

Бет-Энн Шуэльке-Лич, доцент кафедры инженерного менеджмента, Виндзорский университет

«Мы, инженеры, часто думаем об этике как о расплывчатой ​​вещи, которую никто толком не объяснил», — сказала Бет-Энн Шуэльке-Лич, доцент кафедры инженерного менеджмента и предпринимательства в Виндзорском университете, Онтарио, Канада, выступая на сессии «Будущее этического искусственного интеллекта». «Инженерам, рассматривающим конкретные ограничения, может быть сложно соблюдать этические нормы. Это становится действительно сложным, потому что мы не знаем, что это на самом деле означает».

Шуэльке-Лич начала свою карьеру в качестве инженера, затем решила получить докторскую степень в области государственной политики, и этот опыт позволил ей взглянуть на вещи как на инженера и социолога. «У меня есть докторская степень в области социальных наук, и меня снова втянули в инженерный мир, где я участвую в проектах по искусственному интеллекту, но на факультете машиностроения», — сказал он.

Инженерный проект имеет цель, которая описывает цель, набор необходимых функций и возможностей, а также набор ограничений, таких как бюджет и сроки. «Стандарты и правила становятся частью ограничений», — сказала она. «Если я знаю, что должен подчиниться, я так и сделаю. Но если вы скажете мне, что это хорошо, я могу подчиниться, а могу и не подчиниться».

Шуэльке-Лич также является председателем комитета Общества IEEE по социальным последствиям технологических стандартов. Он прокомментировал: «Добровольные стандарты соответствия, такие как IEEE, необходимы для того, чтобы люди в отрасли могли собраться вместе и сказать, что это то, что, по нашему мнению, мы должны делать как отрасль».

Некоторые стандарты, такие как совместимость, не имеют силы закона, но инженеры соблюдают их, чтобы их системы работали. Другие стандарты описываются как передовая практика, но их соблюдение не является обязательным. «Помогает ли это мне достичь цели или мешает мне достичь цели, именно так на это смотрит инженер», — сказал он.

Изучение этики ИИ, названной «беспорядочной и сложной»

Сара Джордан, старший юрисконсульт, Future of Privacy Forum

На встрече с Шуэльке-Лич старший юрисконсульт Future of Privacy Forum Сара Джордан занимается этическими проблемами искусственного интеллекта и машинного обучения и является активным членом Глобальной инициативы IEEE по этике, автономным и интеллектуальным системам. «Этика запутанна, сложна и полна контекста. У нас существует множество теорий, рамок и конструкций», — сказал он, добавив: «Практика этического ИИ потребует повторяемого, строгого мышления в контексте».

Шюэльке-Лич заявил: «Этика — это не конечный результат. Это процесс, которому следуют. Но я также ищу кого-то, кто скажет мне, что мне нужно делать, чтобы выполнять свою работу, скажет мне, как быть этичным, каким правилам я должен следовать, устраняя двусмысленность».

«Когда вы добавляете смешные слова, которые они не понимают, например, «онтологические», инженеры замолкают. Они изучают математику и естественные науки с 13 лет», — сказал он.

Им оказалось сложно привлечь инженеров к разработке стандартов этического ИИ. «Инженеры отсутствуют в таблице», — сказал он. «Спор о том, сможем ли мы достичь 100% этики, — это разговор, которого нет у инженеров».

В заключение он сказал: «Если их менеджеры скажут им разобраться в этом, они это сделают. Нам нужно помочь инженерам пересечь мост наполовину. Очень важно, чтобы социологи и инженеры не отказались от этого».

Панель лидеров описывает интеграцию этики в практику разработки ИИ

Тема этики в сфере искусственного интеллекта все чаще появляется в учебной программе Военно-морского колледжа США в Ньюпорте, Род-Айленд, который был основан для повышения квалификации офицеров ВМС США и теперь обучает руководителей всех служб. Росс Коффи, военный профессор по вопросам национальной безопасности в Институте, принял участие в дискуссии лидеров по искусственному интеллекту, этике и разумной политике в AI World Government.

«Этическая грамотность студентов со временем растет по мере того, как они решают эти этические проблемы, поэтому это неотложный вопрос, поскольку он займет много времени», — сказал Коффи.

Член группы Кэрол Смит, старший научный сотрудник Университета Карнеги-Меллона, изучающий взаимодействие человека и машины, с 2015 года занимается интеграцией этики в разработку систем искусственного интеллекта. Он отметил важность демистификации искусственного интеллекта.

«Мне интересно понять, какие взаимодействия мы можем создать, чтобы люди должным образом доверяли системе, с которой они имеют дело, а не чрезмерно или недостаточно доверяли ей», — сказал он.

В качестве примера он привел функции Tesla Autopilot, которые в некоторой степени, но не полностью, реализуют возможности беспилотного автомобиля. «Люди предполагают, что система может выполнять гораздо более широкий спектр действий, чем она была разработана. Важно помочь людям понять ограничения системы. Каждый должен понимать ожидаемые результаты системы и то, какие могут быть смягчающие обстоятельства», — сказала она.

Член комиссии Така Арига, первый главный специалист по данным, назначенный в Счетную палату правительства США, и директор Инновационной лаборатории GAO, видит пробел в грамотности в области искусственного интеллекта среди молодых сотрудников, поступающих в федеральное правительство. «Подготовка специалистов по данным не всегда включает в себя этику. Ответственный ИИ — это похвальная конструкция, но я не уверен, что все в нее верят. Нам нужно выйти за рамки технических аспектов и привлечь их к ответственности перед конечным пользователем, которого мы пытаемся обслуживать», — сказал он.

Модератор дискуссии Элисон Брукс, доктор философии, вице-президент по исследованиям умных городов и сообществ в исследовательской фирме IDC, задала вопрос, можно ли распространить принципы этического ИИ через границы стран.

«У нас будет ограниченная возможность согласовать один и тот же подход для каждой страны, но нам придется каким-то образом согласовать то, что мы не позволим делать ИИ, и люди также будут нести за это ответственность», — сказал Смит из CMU.

Участники дискуссии выразили признательность Европейской комиссии за то, что она находится на переднем крае решения этих этических вопросов, особенно в области правоприменения.

Росс из Военно-морских колледжей признал важность поиска точек соприкосновения в вопросах этики ИИ. «С военной точки зрения наша функциональная совместимость должна выйти на совершенно новый уровень. Нам нужно найти общий язык с нашими партнерами и союзниками относительно того, что мы позволим ИИ делать, а что мы не позволим ИИ делать». К сожалению, «я не знаю, о чем идет речь», – сказал он.

Смит предположил, что этику ИИ можно было бы обсудить в рамках некоторых существующих договоров.

Может быть сложно следовать и гармонизировать многочисленные принципы, рамки и дорожные карты этики ИИ, которые внедряются в нескольких федеральных агентствах. «Я надеюсь, что в ближайшие год или два мы увидим солидарность», – сказал Тек.

Для получения дополнительной информации и доступа к записанным сеансам посетите Мировое Правительство ИИ.

Leave a Reply

Your email address will not be published. Required fields are marked *