Эксперты подвели итоги Форума этики искусственного интеллекта
Как сделать так, чтобы те технологии ИИ, которые будут создавать разработчики и использовать обычные люди, соответствовали принципам, заложенным в Кодексе этики ИИ? О механизмах реализации этических принципов в течении 6 часов на 16 сессиях говорили участники I Форума этики ИИ. Заместитель руководителя Аналитического Центра при правительстве Российской Федерации Сергей Наквасин подвел краткие итоги масштабной дискуссии.
Он отметил, что в Кодексе уже предусмотрены 3 ключевых механизма его реализации. Во-первых, планируется создание реестра акторов, работающих с искусственным интеллектом. Во-вторых, заявлено появление комиссии по реализации Кодекса, которая будет рассматривать сложные этические случаи, давать рекомендации и помогать с распространением лучших практик. В-третьих, планируется, что за соблюдением Кодекса будет следить Уполномоченный по ИИ.
На итоговой дискуссии Форума Наквасин озвучил некоторые предложения экспертов, касающиеся следующих шагов в развитии этического регулирования ИИ. Так, в треке «Государство» эксперты обратили внимание на то, что ключевыми параметрами использовании ИИ должны быть справедливость, отсутствие дискриминации и обоснованность принимаемых решений. «Рекомендовано обучать специалистов и следить за качеством тех данных, которые необходимы для обучения. А также ограничивать возможность применения ИИ в правосудии, отдавать технологиям только рутинные задачи», - рассказал Наквасин.
В вопросах развития индустрии участники Форума отметили важность саморегулирования для технологических компаний, но подчеркнули, что в особых случаях, касающихся безопасности человеческой жизни, необходимо государственное регулирование. Для контроля за соблюдением этических принципов в компаниях будут назначены уполномоченные руководители, а также создан Совет по соблюдению этических принципов ИИ. «Развитие ИИ - это общая работа, в которой не должно быть территориальных границ или разделения на отдельные компании. Важно привлекать как можно больше социальных групп к обсуждению этики ИИ, не ограничиваться только техническими экспертами», - процитировал экспертов Наквасин.
В треке «Общество» на Форуме говорили о том, что разработчики должны повышать предсказуемость ИИ для конечного потребителя еще до выпуска продукта или технологического решения на рынок. Необходимо показывать пользу от применения ИИ, чтобы сформировать его позитивный образ. По мнению представителей образовательного сектора, в подготовку специалистов в сфере ИИ необходимо интегрировать дисциплины по этическому регулированию.
Обсуждая инфраструктуру, эксперты отметили, что Кодекс этики ИИ – гибкий документ, который будет развиваться параллельно с увеличением числа кейсов применения решений на базе ИИ. Кроме того, по мнению экспертного сообщества, нельзя допускать ситуации, когда ИИ будет оказываться в ситуации морального выбора. Ответственность за принятие решений искусственным интеллектом несет человек. Этические принципы важны, но также необходимо создание нормативно-правовой базы, регулирующей разработку и применение ИИ, подчеркнули участники Форума.
В направлении «Регулирование», по мнению экспертного сообщества, необходимо развитие доверия к технологиям. Без доверия к системам ИИ их этичное применение будет невозможно, считают эксперты.
Комментируя идеи, прозвучавшие на Форуме, старший вице-президент по инновациям Фонда «Сколково» Кирилл Каем отметил, что в ближайшие 15 лет искусственный интеллект будет оставаться слабым. «Это означает, что мы будем иметь в руках технологию, которая не обладает сознанием, - пояснил эксперт. - И когда мы говорим об этике, надо вести речь о том, какие технологические решения сам разработчик закладывает в узкий ИИ с точки зрения общепринятых норм морали. Если мы говорим об этике самой машины, то это будет актуальной проблемой только тогда, когда ИИ станет сильным».
Появление сильного ИИ зависит от нормативного регулирования и свободного, дешевого доступа к данным, добавил вице-президент по взаимодействию с органами государственной власти и связям с общественностью МТС Руслан Ибрагимов. «Дешевизна обработки больших данных вовлечет большое количество людей в работу над ИИ, а законодательство обеспечит правомерность такого доступа», - рассказал Ибрагимов.
Наквасин сообщил, что по итогам Форума будет разработан документ с рекомендациями его участников по развитию практики этического регулирования ИИ. «Позже этот документ ляжет в основу Плана развития этического регулирования. Я практически уверен, что одним из пунктов этого плана станет проведение второго Форума, посвященного искусственному интеллекту», - добавил Наквасин.
Источник: https://ac.gov.ru/news/page/eksperty-podveli-itogi-foruma-etiki-iskusstvennogo-intellekta-27080
Дата: 28.10.2021
Последние новости:
Как ChatGTP снижает мыслительные способности человека – исследование
MIT поставил жестокий эксперимент на людях и выяснил, что у студентов, использующих сервис генеративного искусственного интеллекта ChatGPT для прохождения оцено ...
Поступай онлайн: на «Госуслугах» стартовал прием заявлений в вуз
В российских вузах стартовала приемная кампания. Пройти весь процесс поступления в вуз можно на «Госуслугах». В 2024 г. сервис помог найти вуз мечты и поступить ...