
- •1. Наука как знание, наука как вид деятельности и наука как социальный институт
- •2. Наука и другие формы духовного освоения мира (религия, искусство).
- •3. Основные методы научного познания.
- •4. Естественнонаучные и гуманитарные дисциплины: черты сходства и различия.
- •5. Естествознание как единая наука о природе: система естественнонаучных дисциплин.
- •6. Этапы развития естественнонаучного мышления.
- •1 Подход. Сначала исследуется история, а затем фиксируются какие-то характеристики, и с возникновением важных характеристик связывает начало науки. Наука возникла:
- •2 Подход. Наоборот, ученые выводят понятие науки, а затем накладывают какие-то характеристики на историю:
- •7. Особенности античного понимания природы: мир как организм.
- •8. Понимание природы в средневековье: природа как текст.
- •9. Синтез науки и искусства в эпоху Возрождения.
- •Синтез научного познания и искусства
- •Отождествление понятий «познание истины» и «исследование природы»
- •10. Классическая новоевропейская наука: формирование экспериментального естествознания.
- •11. Неклассическая наука хх века.
- •Признание равноправия нескольких различающихся теоретических подходов к описанию одного и того же круга физических явлений
- •Усложнение языка теории и все более высокая математизация физической теории
- •12. Постнеклассическая наука хх1 века: особенности развития.
- •13. Конкретно-научное содержание и мировоззренческие основания космологических концепций.
- •14. Конкретно-научное содержание и мировоззренческие основания космогонических теорий.
- •15. Антропный принцип в современной космологии.
- •16. Основные этапы развития представлений о сущности и происхождении живого до хх века.
- •17. Концепция эволюционного происхождения жизни (взгляды в.И.Опарина).
- •18. Современные представления о сущностных характеристиках живого.
- •19. Структурные уровни организации материи.
- •20. Пространство и время в естествознании.
- •21. Проблема определения естественного и искусственного интеллекта. Сильный и слабый искусственный интеллект.
- •22. Конкретно-научные и гуманитарные аспекты развития технологий искусственного интеллекта.
- •23. Специфика пространственно-временной организации живого.
- •24. Кибернетика: предмет исследования, особенности.
- •25. Самоорганизация в живой и неживой природе: синергетика.
- •26. Идея развития в естествознании: основные этапы становления.
- •27. Эволюционная теория ч. Дарвина.
- •Элементарная единица эволюции- вид (очень важно!!!). (Прим.Автора: в синтетической теории- популяция).
- •В основе преобразования видов в природе лежат такие свойства организмов, как наследственность и изменчивость, а также постоянно происходящий в природе естественный отбор (движущая сила эволюции).
- •28. Дарвинизм и генетика: проблема синтеза знаний.
- •29. Современные представления о биологической эволюции.
- •30. Основные этапы и типы антропогенного воздействия на природные экосистемы.
- •31. Основные методы сохранения окружающей природной среды.
- •3. Экономическое регулирование охраны окружающей среды, экологические фонды
- •32. Переход от антропоцентризма к биоцентризму в современной науке: суть, причины, следствия.
- •33. Устойчивое развитие (sustainable development) как концепция управления развитием человечества. Цели устойчивого развития оон (цур оон, 2015).
- •34. Концепция esg (Environmental, Social, Governance): факторы, риски, примеры реализации.
22. Конкретно-научные и гуманитарные аспекты развития технологий искусственного интеллекта.
Автор: Ленинг Андрей
Информация из 21 билета сюда же подойдет.
Многие прогнозы говорят о том, что мир движется в сторону разрушения границ между материальной и виртуальной реальностью. Эта проблематика цифровых аватаров, обращения с персональными данными, взаимодействия между цифровыми аватарами и субъектом. Например, создана модель вашего организма и над ней проводятся биологические эксперименты. Вам от этого никакого риска, но в ходе эксперимента получается информация, защищенная патентами и приносящая прибыль ее владельцу. Эта отчужденная от вас информация начинает функционировать как товар особого рода. Этих проблем огромная множество и мы их в общем обозначим как проблемы регулирования ИИ с точки зрения права и этики.
Перечислим эти проблемы:
Во-первых, очень многие системы ИИ работают по принципу черного ящика и осуществляют так называемый цифровой страшный суд. Либо заложенные человеком алгоритмы охраняются как предмет коммерческой тайны, либо, если это нейросети без алгоритмов, разработчики не заинтересованы в том, чтоб они стали прозрачными. Например, ИИ обрабатывает огромное количество информации и работает в качестве поддержки врачебного решения. он сверяет полученные данные с уже имеющимися и выдает рекомендацию по лечению. Однако принцип и условия на основании которых ИИ и предлагает человеку лечение не прозрачны. Еще один пример, многие ВУЗы используют ИИ для отбора студентов. Имеет ли право студент получивший отказ, потребовать объяснения его причин? В этом и состоит проблема черного ящика. Во-вторых, нейросети подвержены кибератакам. Например если происходит сращивание человеческого тела с нейросистемой (вспоминаем киберпанк и бионические протезы и стимуляторы), уже были случаи, когда кибератаки были просто опасны для людей, чья жизнь зависит от кибернетических устройств. В-третьих, могут возникать проблемы, связанные с некорректностью или неполнотой выборок на основе которых нейросеть принимает решение. Например если не выдержаны гендерные или этнические, или другие параметры, системой могут делаться неправильные выводы. Эксперты говорят о необходимости ввода понятия прозрачного ИИ, то есть разрабатывать системы, которые были бы понятны с точки зрения принципов деятельности для человека, и человек мог бы перепроверять в сомнительных случаях выводы ИИ. Однако тогда снова возникает проблема, которая уже была названа: проблема охраны алгоритмов создателями, для соблюдения коммерческой тайны, либо проблема того, что в некоторых видах ИИ не предполагается алгоритма вообще, а значит и прозрачности.
Еще одна проблема - это проблема субъектности. Если будет создан сильный ИИ, то на него может быть возложена ответственность - он станет субъектом права. Однако если есть ответственность, то есть и норма, а если есть норма, то есть и система контроля за ней, а в случае непрозрачного ИИ, это невозможно. Однако, перспектива сильного ИИ, очень туманна, а вот в отношении уже существующего слабого ИИ проблема ответственности стоит очень остро. Например врач рекомендовал назначение химиотерапии на основе рекомендации ИИ, однако система чего-то не учла и ошиблась (подобные случаи действительно происходили, и системы такие есть, например IBM Oncology). Возникает вопрос - Кто виноват? Если врач, то тогда будут противиться введению ИИ в качестве помощников врачей. Если наоборот, то всю ответственность будут пытаться спихнуть на ИИ, и при этом от ответственности уйдут некомпетентные люди. Есть модель, по которой к ответственности будут привлекаться организации, которые принимают решения о введении подобных систем. Еще одна проблема состоит в отсутствии единого определения - что такое искусственный интеллект. Даже в разрабатываемом техническом регламенте присутствует минимум 3 разных определения. В 2020-ом году ЮНЕСКО разработано этические рекомендации ИИ, что неразрывно связано с вопросом ответственности ИИ.
Третья проблема - это контроль за тем как внедряются и используются технологии ИИ. Например система образования. Она массовая, нацелена на несовершеннолетних. Использование ИИ в системе образования тесно связано с решением того насколько насколько он (то есть ИИ) , во-первых, безопасен, во-вторых, полезен. В связи с этим используется понятие “доверенный ИИ”. То есть насколько он действует в соответствии с законом, этикой, необходимое требование - надежность ИИ.
Еще одна проблема - это так называемая “липкость технологий. Достоверно установлено, что дети общаются с ИИ иначе чем с антропоморфными роботами. Они наделяют его свойствами субъекта. Возникает эффект, когда люди привязываются к ИИ сильнее чем к другим людям. Заменяют реальные социальные связи общением с антропоморфными системами. Это связано с тем, что разработчики часто не допускают негативного варианта эмоциональных отношений с ИИ.