Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
БИЛЕТЫ ДЛЯ ЗАЧЕТА ПО СОВРЕМЕННОМУ ЕСТЕСТВОЗНАНИЮ (лето 2022 года, коллектив авторов 2024 года выпуска).docx
Скачиваний:
48
Добавлен:
20.12.2022
Размер:
2.81 Mб
Скачать

22. Конкретно-научные и гуманитарные аспекты развития технологий искусственного интеллекта.

Автор: Ленинг Андрей

Информация из 21 билета сюда же подойдет.

Многие прогнозы говорят о том, что мир движется в сторону разрушения границ между материальной и виртуальной реальностью. Эта проблематика цифровых аватаров, обращения с персональными данными, взаимодействия между цифровыми аватарами и субъектом. Например, создана модель вашего организма и над ней проводятся биологические эксперименты. Вам от этого никакого риска, но в ходе эксперимента получается информация, защищенная патентами и приносящая прибыль ее владельцу. Эта отчужденная от вас информация начинает функционировать как товар особого рода. Этих проблем огромная множество и мы их в общем обозначим как проблемы регулирования ИИ с точки зрения права и этики.

Перечислим эти проблемы:

  1. Во-первых, очень многие системы ИИ работают по принципу черного ящика и осуществляют так называемый цифровой страшный суд. Либо заложенные человеком алгоритмы охраняются как предмет коммерческой тайны, либо, если это нейросети без алгоритмов, разработчики не заинтересованы в том, чтоб они стали прозрачными. Например, ИИ обрабатывает огромное количество информации и работает в качестве поддержки врачебного решения. он сверяет полученные данные с уже имеющимися и выдает рекомендацию по лечению. Однако принцип и условия на основании которых ИИ и предлагает человеку лечение не прозрачны. Еще один пример, многие ВУЗы используют ИИ для отбора студентов. Имеет ли право студент получивший отказ, потребовать объяснения его причин? В этом и состоит проблема черного ящика. Во-вторых, нейросети подвержены кибератакам. Например если происходит сращивание человеческого тела с нейросистемой (вспоминаем киберпанк и бионические протезы и стимуляторы), уже были случаи, когда кибератаки были просто опасны для людей, чья жизнь зависит от кибернетических устройств. В-третьих, могут возникать проблемы, связанные с некорректностью или неполнотой выборок на основе которых нейросеть принимает решение. Например если не выдержаны гендерные или этнические, или другие параметры, системой могут делаться неправильные выводы. Эксперты говорят о необходимости ввода понятия прозрачного ИИ, то есть разрабатывать системы, которые были бы понятны с точки зрения принципов деятельности для человека, и человек мог бы перепроверять в сомнительных случаях выводы ИИ. Однако тогда снова возникает проблема, которая уже была названа: проблема охраны алгоритмов создателями, для соблюдения коммерческой тайны, либо проблема того, что в некоторых видах ИИ не предполагается алгоритма вообще, а значит и прозрачности.

  1. Еще одна проблема - это проблема субъектности. Если будет создан сильный ИИ, то на него может быть возложена ответственность - он станет субъектом права. Однако если есть ответственность, то есть и норма, а если есть норма, то есть и система контроля за ней, а в случае непрозрачного ИИ, это невозможно. Однако, перспектива сильного ИИ, очень туманна, а вот в отношении уже существующего слабого ИИ проблема ответственности стоит очень остро. Например врач рекомендовал назначение химиотерапии на основе рекомендации ИИ, однако система чего-то не учла и ошиблась (подобные случаи действительно происходили, и системы такие есть, например IBM Oncology). Возникает вопрос - Кто виноват? Если врач, то тогда будут противиться введению ИИ в качестве помощников врачей. Если наоборот, то всю ответственность будут пытаться спихнуть на ИИ, и при этом от ответственности уйдут некомпетентные люди. Есть модель, по которой к ответственности будут привлекаться организации, которые принимают решения о введении подобных систем. Еще одна проблема состоит в отсутствии единого определения - что такое искусственный интеллект. Даже в разрабатываемом техническом регламенте присутствует минимум 3 разных определения. В 2020-ом году ЮНЕСКО разработано этические рекомендации ИИ, что неразрывно связано с вопросом ответственности ИИ.

  1. Третья проблема - это контроль за тем как внедряются и используются технологии ИИ. Например система образования. Она массовая, нацелена на несовершеннолетних. Использование ИИ в системе образования тесно связано с решением того насколько насколько он (то есть ИИ) , во-первых, безопасен, во-вторых, полезен. В связи с этим используется понятие “доверенный ИИ”. То есть насколько он действует в соответствии с законом, этикой, необходимое требование - надежность ИИ.

  1. Еще одна проблема - это так называемая “липкость технологий. Достоверно установлено, что дети общаются с ИИ иначе чем с антропоморфными роботами. Они наделяют его свойствами субъекта. Возникает эффект, когда люди привязываются к ИИ сильнее чем к другим людям. Заменяют реальные социальные связи общением с антропоморфными системами. Это связано с тем, что разработчики часто не допускают негативного варианта эмоциональных отношений с ИИ.