Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

LegalTech, FinTech, RegTech-1

.pdf
Скачиваний:
17
Добавлен:
07.09.2022
Размер:
1.83 Mб
Скачать

1. Компоненты цифровых технологий в правовом контексте

прямое закрепление в законе: «Юридическим лицом признается организация, которая имеет обособленное имущество и отвечает им по своим обязательствам, может от своего имени приобретать и осуществлять гражданские права и нести гражданские обязанности, быть истцом и ответчиком в суде» (п. 1 ст. 48 ГК РФ). Данное определение, отражающее сложившееся в отечественной цивилистической доктрине понимание юридического лица исключительно как организации, исключает возможность охватить статусом юридического лица как ИИ, так и роботов, которые не могут рассматриваться в качестве организации.

Таким образом, реализация идеи признания за ИИ статуса юридического лица потребует значительных новаций как в российской цивилистической доктрине, так и в российском законодательстве.

В-третьих, в развитие изложенного необходимо обратить внимание на то, что конструкцию юридического лица предлагается использовать для существующего слабого ИИ, тогда как институт самостоятельной «электронной личности» предполагается разрабатывать для сильного ИИ.

В отношении признания статуса «электронной личности» за сильным ИИ делать прогнозы, вероятно, преждевременно. А применительно к предложению о наделении слабого ИИ статусом юридического лица следует заметить, что оно вовсе не подразумевает «переформатирование» ИИ в организацию с обязательным наделением его обособленным имуществом и созданием органов управления. Речь идет о разработке новой (по всей видимости, упрощенной) конструкции юридического лица, которая нуждается в принципиально иной нормативной регламентации.

Например, в отношении упоминавшегося выше Те Ава Тупуа (река Уонгануи от гор и до моря, включая все физические и метафизические элементы), обладающего всеми правами, полномочиями, обязанностями и ответственностью юридического лица, законом специально определены: лица, которые осуществляют или выполняют права

и полномочия Те Ава Тупуа, а также должны нести ответственность за обязательства Те Ава Тупуа; лица, которые выполняют конкретные

функции, полномочия и обязанности, возникающие в связи с различными аспектами (например связанные с самой рекой Уонгануи или водосборным бассейном реки); лица, которые должны обеспечивать статус Те Ава Тупуа; лица, которые принимают решения при осуществлении или выполнении функции, полномочий или обязанности и пр. То есть Те Ава Тупуа рассматривается не как имущество, но как юридическое

лицо, чьи (все) права, полномочия или обязанности осуществляют, исполняют, несут другие лица, прямо обозначенные в законе.

191

LegalTech, FinTech, RegTech etc.

Подобная конструкция вполне может использоваться и для слабого ИИ, для которого закон может определить, в частности, лицо,

ответственное за причинение им вреда; лицо, отвечающее по договорным обязательствам ИИ; лицо, становящееся правообладателем при создании объекта интеллектуальных прав; лицо, несущее ответственность

за принятое независимо от человека (квазиавтономное) решение, и пр. В условиях уже признаваемой сегодня за ИИ способности принимать независимые от человека (квазиавтономные) решения, результатом которых может стать причинение вреда, бесспорно, значимым становится вопрос об ответственности за такой вред. Анализ правовых публикаций позволяет говорить о том, что многие авторы исследуют вопрос правосубъектности ИИ именно в ключе допустимости возложения на него гражданско-правовой ответственности за причиненный ущерб1. Но здесь могут возникать и другие правовые вопросы, например в ситуации, когда решение ИИ о выборе контрагента по договору было принято на основании ошибки алгоритма, что привело к заклю-

чению договора с недобросовестным контрагентом.

На пике обсуждения и исключительные права на произведения, создаваемые ИИ без непосредственного участия человека, – необходимо определиться с лицом, которое станет обладателем прав на такие произведения. В настоящее время уже предложено несколько вариантов: права на такие объекты предлагается признавать за разработчиком соответствующего программного обеспечения, за владельцем материального носителя ИИ (в том числе робота) или за оператором, а в качестве альтернативного варианта звучит предложение рассматривать такие произведения как находящиеся в общественном достоянии. Но если ИИ приобретет статус юридического лица, правообладателем (но, конечно, не автором) должен признаваться сам ИИ, тогда как осуществление этих прав и исполнение связанных с этим обязанностей – возлагаться на лицо, которое назовет законодатель.

Критически оценив предложения о признании ИИ юридическим лицом или в перспективе – новым самостоятельным субъектом права (электронной личностью), хотелось бы подчеркнуть необходимость рассматривать возникающие вопросы комплексно и с прицелом на будущее, не пытаясь решить каждый из них по отдельности.

1  См., например: Синицын С.А. Указ. соч. С. 64–67; Свиридова Е.А. Проблема ответственности искусственного интеллекта через призму концепции гражданско-правовой ответственности Франции // Образование и право. 2000. № 4. С. 516; Богустов А.А. К вопросу о возможности признания искусственного интеллекта субъектом деликтных обязательств // Правова держава. 2020. № 40. С. 61.

192

1. Компоненты цифровых технологий в правовом контексте

1.7.3. Понятие алгоритма

Согласно определению Большой российской энциклопедии, под алгоритмом понимается «инструкция, точное описание способа действия с использованием простых, общепонятных элементов (например, операций)»1. Иными словами, алгоритм – это программа действий. Исполнителем программы может становиться как человек, так и компьютер. В последнем случае компьютерная программа будет являться частным случаем алгоритма.

В зарубежной литературе алгоритм определяется как «абстрактное, формализованное описание вычислительной процедуры»2. Результатом этой процедуры является решение. Таким образом, в первом приближении алгоритм можно определить как программу принятия решений. В некоторых случаях алгоритмы могут работать в автоматическом режиме. Так, например, спам-фильтр распознает и блокирует электронные сообщения, поступающие пользователю. В других случаях алгоритмы, реализованные в программном обеспечении (ПО), помогают людям принимать решения. Например, на основании кредитного рейтинга, определенного компьютерной программой, сотрудник банка принимает решение о выдаче (или отказе в выдаче) кредита.

Близким по содержанию к понятию «алгоритм» является понятие ИИ3, ставшее чрезвычайно популярным в последние годы. В исследованиях, посвященных ИИ, часто встречается разграничение между так называемым сильным или общим ИИ (англ. strong or general AI) и слабым

1  Алгоритм // Большая российская энциклопедия. 2016 (автор – А.Л. Семенов). URL: https://bigenc.ru/mathematics/text/1810305

2  См.: Dourish, P. Algorithms and their others: Algorithmic culture in context. (2016) 3(2) Big Data & Society.

3  Одна из классических работ определяет искусственный интеллект (ИИ) как «проектирование и создание интеллектуальных агентов, которые получают сигналы от окружающей среды и совершают действия, влияющие на эту среду» (Russell, S., Norvig, P. Artificial Intelligence: A Modern Approach, Englewood Cliffs, NJ: Prentice-Hall, 1995, at 27). Другое классическое определение ИИ звучит следующим образом: «это наука и техника создания интеллектуальных машин, в особенности интеллектуальных компьютерных программ» (Mccarthy, J. What Is Artificial Intelligence? (12 November 2007) (unpublished manuscript) (on file with Stanford University). URL: http://www-formal.stan- ford.edu/jmc/whatisai.pdf). Вместе с тем задолго до того, как термин «искусственный интеллект» стал использоваться повсеместно, наряду с ним в ходу был иной термин – «алгоритмический интеллект», который, как представляется, более точно отражает суть явления (Harel, D. Computers Ltd.: What They Really Can’t Do. Oxford University Press, September 2000; Mason, S. Artificial intelligence: oh really? And why judges and lawyers are central to the way we live now – but they don’t know it in C.T.L.R. 2017, 23(8), 213 ff).

193

LegalTech, FinTech, RegTech etc.

или узким ИИ (англ. weak or narrow AI). Под сильным ИИ понимаются универсальные системы, обладающие мышлением и самосознанием

ипотому способные адаптироваться к различным ситуациям и даже полностью заменить человека1, но в настоящее время таких систем не существует2. Под слабым ИИ понимаются интеллектуальные системы, способные к выполнению сложных задач, имитирующих человеческие мыслительные процессы. Поскольку сущность интеллектуальных систем составляют компьютерные программы, понятия «алгоритм»

и«слабый ИИ» оказываются близки по содержанию и могут считаться синонимами.

По мере все большего проникновения вычислительных технологий в повседневную жизнь значение алгоритмов стремительно возрастает. Автоматизированный транспорт и социальные сети, медицинская диагностика и управление рисками в страховых организациях, построение «умных городов» и предупреждение преступлений – все эти мало связанные между собой области управляются бесчисленными алгоритмами. Это стало основанием для появления нового термина «алгоритмическое общество». Автором его является Джек М. Балкин, определяющий алгоритмическое общество как «общество, в котором принятие социальных и экономических решений осуществляется алгоритмами, роботами и интеллектуальными агентами»3. Характерной особенностью алгоритмического общества является накопление огромного массива данных об индивидах, что способствует появлению новых форм слежки, контроля, дискриминации и манипуляций как со стороны государства, так и со стороны корпораций4.

Алгоритмы выглядят как решение, позволяющее сократить временные и трудовые затраты, оптимизировать рутинные операции

иполучить новые знания на основе имеющихся данных. Однако, как

1  См.: Adams, S., Arel, I., Bach, J., Coop, R., Furlan, R., Goertzel, B.… & Shapiro, S.

Mapping the landscape of human-level artificial general intelligence. AI magazine, 2012. 33(1). Р. 25–42.

2  Признается, что появление сильного ИИ способно создать серьезную угрозу самому человечеству (Cellan-Jones, R. Stephen Hawking Warns artifiicial intelligence could end mankind. 2014. URL: http://www.bbc.com/news/technology-30290540/; Sulleyman, A. Elon Musk: AI is a “Fundamental Existential Risk for Human Civilisation” and creators must slow down. 2017. URL: https://www.independent.co.uk/life-style/gadgets-and-tech/news/elon-musk-ai-human-civili- sation-existential-risk-artifiicial-intelligence-creator-slow-down-tesla-a7845491.html).

3  См.: Balkin, J.M. The Three Laws of Robotics in the Age of Big Data, 78 OHIO ST. L.J. 1217, 1219 (2017).

4  См.: Balkin, J.M. Free Speech in the Algorithmic Society: Big Data, Private Governance, and New School Speech Regulation. University of California, Davis, 2018. Vol. 51, 1149, 1153. URL: https://digitalcommons.law.yale.edu/fss_papers/5160/

194

1. Компоненты цифровых технологий в правовом контексте

справедливо указывают исследователи, повсеместное распространение алгоритмов породило целый ряд проблем.

Во-первых, полная автоматизация означает исключение человеческого вмешательства в процесс принятия решений. Алгоритмы собирают информацию, обрабатывают и применяют ее, а также учатся совершенствовать получаемый результат. Вместе с тем сам процесс принятия решений зачастую остается непонятным не только для лиц, в отношении которых было принято то или иное решение, но даже и для самих разработчиков автоматизированных систем (проблема «черного ящика»)1.

Во-вторых, алгоритмы не просто включены в существующие организационные практики, но, напротив, образуют суть информационной архитектуры, которая в значительной степени определяет, как функционируют коммерческие структуры и публичные органы. Если прежде автоматизация затрагивала лишь отдельные операции, то сегодня общепринятой практикой становится не просто перевод бизнес-процес- сов в электронный формат, но и постоянный и повсеместный обмен данными между организациями. В результате автоматические решения, принимаемые одной организацией, могут основываться на информации, поступившей от другой организации. Это требует не только гармонизации технологических решений, но и единообразно понимаемых и применяемых определений, классификаций и правовых норм2.

В-третьих, сфера применения алгоритмов значительно расширилась за последние годы. Сегодня алгоритмы не просто автоматизируют внутренние процессы организаций, но образуют новые формы управления обществом. Алгоритмы способны предсказывать поведение, подталкивать индивидов к определенным действиям и даже ограничивать их свободу через систему скоринга3 и профайлинга4. В эпоху

1  См.: Bathaee, Y. The Artificial Intelligence Black Box And The Failure Of Intent And Causation. Harvard Journal of Law & Technology Volume 31, Number 2. Spring 2018. URL: https://jolt.law.harvard.edu/assets/articlePDFs/v31/The-Artificial-Intelligence-Black-Box-and- the-Failure-of-Intent-and-Causation-Yavar-Bathaee.pdf; Pasquale, F. The black box society: The secret algorithms that control money and information. Harvard University Press. 2015.

2  См.: Schuilenburg, M., Peeters, R. The Algorithmic Society. Technology, Power, and Knowledge. Routledge. 2021.

3  См.: Botsman, R. Big data meets big brother as China moves to rate its citizens. 2017. URL: http://www.wired.co.uk/article/chinese-government-social-credit-score-privacy-in- vasion/; Locker, M. China’s terrifying “Social Credit” surveillance system is expanding. 2018. URL: https://www.fastcompany.com/40563225/chinas-terrifying-social-credit-surveillance- system-is-expanding/

4  См.: Khoury, A. еl. Personal Data, Algorithms and Profiling in the EU: Overcoming the Binary Notion of Personal Data through Quantum Mechanics // Erasmus Law Review, 3, (2018). Р. 165–177.

195

LegalTech, FinTech, RegTech etc.

так называемого капитализма наблюдения отслеживание поведения пользователей становится основной бизнес-моделью технологических компаний1. При этом далеко не все данные, производимые пользователями, используются, как заявляют компании, для улучшения сервисов. Большая часть из них используется для совершенствования алгоритмов, которые используются для прогнозирования, а в дальнейшем и манипулирования поведением пользователей.

Эти и другие проблемы вызывают серьезную озабоченность государств и межправительственных организаций. И, в частности, только по заказу Совета Европы за последние годы был подготовлен целый ряд исследований, посвященных воздействию алгоритмов и ИИ на права человека2, в которых был обозначен целый ряд выявленных угроз.

1. Дискриминация.

Несмотря на то что применение алгоритмов как государственными, так и частными структурами может иметь серьезные последствия для индивидов, процесс принятия решений остается скрыт от лиц, в отношении которых выносятся эти решения. Непрозрачность алгоритмов создает дополнительные возможности для дискриминации как умышленной3, так и непреднамеренной.

1  См.: Zuboff, S. The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. New York: Public Affairs, 2019.

2  См.: Algorithms and Human Rights. Study on the human rights dimensions of automated data processing techniques and possible regulatory implications. Council of Europe Study DGI. 2017. 12. URL: https://rm.coe.int/algorithms-and-human-rights-en-rev/16807956b5; Discrimination, artificial intelligence, and algorithmic decision-making. Council of Europe Study. 2018. URL: https://rm.coe.int/discrimination-artificial-intelligence-and-algorithmic- decision-making/1680925d73; Artificial Intelligence and Data Protection: Challenges and Possible Remedies. Council of Europe Report. T-PD(2018)09Rev. URL: https://rm.coe. int/090000168091f8a6; Responsibility and AI. A study of the implications of advanced digital technologies (including AI systems) for the concept of responsibility within a human rights framework. Council of Europe study DGI(2019)05. URL: https://rm.coe.int/responsability-and- ai-en/168097d9c5; Towards Regulation of AI Systems. Global perspectives on the development of a legal framework on Artificial Intelligence (AI) systems based on the Council of Europe’s standards on human rights, democracy and the rule of law. Council of Europe Study DGI. 2020. 16. URL: https://rm.coe.int/prems-107320-gbr-2018-compli-cahai-couv-texte-a4-bat- web/1680a0c17a; Cappello, M. (ed.) Artificial intelligence in the audiovisual sector, IRIS Special, European Audiovisual Observatory, Strasbourg, 2020. URL: https://rm.coe.int/iris-special-2- 2020en-artificial-intelligence-in-the-audiovisual-secto/1680a11e0b

3  См., например: Croxford, R. Why your name matters in the search for a job. BBC News. 18 January 2019. URL: https://www.bbc.com/news/uk-46927417; Baah, N. Drivers with Muslim-Sounding Names are Charged More for Car Insurance. Vice. 22 January 2018. URL: https://www.vice.com/en/article/bjyk5q/drivers-with-muslim-sounding-names-are-charged- more-for-car-insurance

196

1. Компоненты цифровых технологий в правовом контексте

Один из первых известных случаев дискриминации был зафиксирован при приеме на обучение в одну из медицинских школ в Великобритании. Для обработки заявок была разработана компьютерная программа, которая, как позднее выяснилось, дискриминировала женщин и иммигрантов. Причина дискриминации крылась в данных, на основе которых обучалась программа: в предшествующие годы большая часть заявок, по которым было принято положительное решение, было подано мужчинами-британцами. Таким образом, алгоритм попросту воспроизвел существовавшую ранее практику отбора студентов1.

Подобные случаи дискриминации происходят и в настоящее время. Ранее был упомянут случай выявления предвзятости системы ИИ в отношении женщин при отборе кандидатов на позиции разработчиков и инженеров в компанию Amazon (см. параграф 1.7.1) – компания сочла использование такого алгоритма неприемлемым и отказались от него2.

В адрес компании Facebook также выдвигаются обвинения в дискриминации. Так, исследователи указывают, что социальная сеть позволяет рекламодателям не показывать рекламу афроамериканцам, латиноамериканцам и другим этническим меньшинствам3. Кроме расовой дискриминации Facebook вменяют возрастную дискриминацию. Таргетируя определенную возрастную группу (например, лиц от 25 до 36 лет), рекламодатели не оставляют шансов лицам более старшего возраста даже увидеть объявление о работе4.

2. Вторжение в частную жизнь.

Использование алгоритмов позволяет собирать и обрабатывать огромные массивы данных об индивидах. Цифровые следы, оставляемые пользователями Всемирной паутины в виде истории поиска и посещенных страниц, cookies и данных геолокации, публикаций

1  См.: Zuiderveen Borgesius, F. Discrimination, artificial intelligence, and algorithmic decision-making. Council of Europe Study. 2018. P. 11.

2  См.: Dastin, J. Op. cit.

3  См.: Angwin, J., Tobin, A. and Varner, M. Facebook (still) letting housing advertisers exclude users by race, ProPublica, November 2017. URL: https://www.propublica.org/article/ facebook-advertising-discrimination-housing-race-sex-national-origin).

4  См.: Angwin, J., Scheiber, N. and Tobin, A. Dozens of companies are using Facebook to exclude older workers from job ads’, ProPublica, December 2017. URL: https://www.propublica. org/article/facebook-ads-age-discrimination-targeting; Kofman, A. and Tobin, A. Facebook Ads Can Still Discriminate Against Women and Older Workers, Despite a Civil Rights Settlement, ProPublica, December 2019. URL: https://www.propublica.org/article/facebook-ads-can-still- discriminate-against-women-and-older-workers-despite-a-civil-rights-settlement

197

LegalTech, FinTech, RegTech etc.

икомментариев в социальных сетях, складываются в невероятно точную картину1, где каждому отдельному пользователю соответствует профиль – его характеристика как потенциального потребителя товаров, услуг и информации.

Технологии профайлинга2 вызывают озабоченность по следующим причинам. Во-первых, создание профилей может иметь следствием появление новых данных, причем таких, которые пользователь не мог разумно ожидать. Известным примером является алгоритм, созданный американской розничной сетью Target, позволявший на основании истории покупок определить беременность женщины

идаже рассчитать дату родов3. Во-вторых, использование данных из профилей пользователей означает, что эти данные вырываются из контекста и используются не для тех целей, для которых они изначально собирались. Это создает риск того, что неполные, неточные или некорректные данные в дальнейшем могут создать негативные последствия для индивида; при этом последний может даже не понимать какие именно данные были использованы в процессе принятия решения.

Профайлинг лежит в основе ценовой дискриминации – практики, когда одни и те же товары или услуги предлагаются разным группам потребителей на различных условиях. Например, компания Princeton Review предлагала услуги по онлайн-обучению по цене в диапазоне 6 600 до 8 400 долларов США в зависимости от местонахождения клиента, которое определялось по почтовому индексу. При этом лицам азиатского происхождения в два раза чаще онлайн-курсы предлагались по более высокой цене даже в районах с невысокими средними доходами4. Компания полагала, что клиенты готовы платить, а студенты были вынуждены нести экономические потери.

1  См.: Parker, C. New Stanford research finds computers are better judges of personality than friends and family, Stanford News, December 2015. URL: https://news.stanford. edu/2015/01/12/personality-computer-knows-011215/

2  Профайлинг – это процесс создания профилей на основе данных, имеющихся

вИнтернете, и их последующее использование, в частности, для принятия решений

вотношении этого лица, для анализа или прогнозирования его личных предпочтений,

поведения и взглядов.

3  См.: Hill, K. How Target Figured Out A Teen Girl Was Pregnant Before Her Father Did,

Forbes, 16 February 2012. URL: https://www.forbes.com/sites/kashmirhill/2012/02/16/how- target-figured-out-a-teen-girl-was-pregnant-before-her-father-did/#13216f0a6668

4  См.: Angwin, J, Mattu, S and Larson, J. The tiger mom tax: Asians are nearly twice as likely to get a higher price from Princeton Review (2015) ProPublica. URL: https://www.Pro- Publica.org/article/asians-nearly-twice-as-likely-to-get-higher-price-from-princeton-review

198

1.Компоненты цифровых технологий в правовом контексте

3.Нарушение права свободно искать и получать информацию и права

на свободное выражение мнений.

Алгоритмы, несомненно, упростили и ускорили поиск информации

всовременном мире. Более того, изучая пользовательские предпочтения, алгоритмы позволяют персонализировать результаты поиска, рекламные объявления, новостные ленты и т.д. Однако обратной стороной персонализации являются так называемые информационные пузыри (англ. filter bubbles) – «уникальная информационная среда каждого из нас»1.

Возникновение информационных пузырей может иметь две причины: персонализация по выбору пользователя (англ. self-selected personalisation) и предустановленная персонализация (англ. pre-selected personalisation)2. В первом случае пользователь сам определяет желаемый контент, который отражает и поддерживает его интересы и установки. Однако следствием такой персонализации является поляризация общественного мнения и неспособность услышать аргументы оппонентов. Во втором случае персонализация контента задается алгоритмами без осознанного выбора или согласия пользователя. Как показывают исследования, предустановленная персонализация новостного контента ведет к систематическим пробелам в знаниях о текущих событиях3. Однако в случае социальных сетей последствия еще более драматичные. Социальные сети сочетают оба вида персонализации. Во-первых, пользователи в основном общаются с похожими на них людьми, поэтому распространяемый контент, как правило, соответствует предпочтениям отдельного пользователя. Во-вторых, алгоритмы социальной сети определяют, какой контент попадет в новостную ленту пользователя. Как следствие, социальные сети выступают акселераторами сегрегации и поляризации общества4.

В отличие от традиционных СМИ, которые функционируют в рамках сложившихся правовых рамок и несут ответственность за распространяемый контент, поисковые системы и социальные медиа выступают как информационные посредники, а потому всячески стараются

1  См.: Pariser, E. (2011). The filter bubble: What the Internet is hiding from you. New York, NY: Penguin. 2011. Р. 9.

2  См.: Zuiderveen Borgesius, F. & Trilling, D. & Möller, J. & Bodó, B. & de Vreese, C. & Helberger, N. (2016). Should we worry about filter bubbles? Internet Policy Review, 5(1). DOI:

10.14763/2016.1.401 3  Ibid. P. 9.

4  См.: Sasahara, K., Chen, W., Peng, H. et al. Social influence and unfollowing accelerate the emergence of echo chambers. J Comput Soc Sc (2020). URL: https://doi.org/10.1007/ s42001-020-00084-7

199

LegalTech, FinTech, RegTech etc.

избегать ответственности, при этом выступая в качестве ключевого канала коммуникации и во многом определяя общественное мнение. В исследовании, подготовленном Комитетом экспертов по медиаплюрализму и прозрачности владения СМИ по заказу Совета Европы, справедливо отмечается, что «самым фундаментальным, пагубным

ив то же время трудно обнаруживаемым следствием перехода к социальным сетям является не растущая власть посредников, а неспособность регулирования уравнять шансы на политическую конкуренцию

иограничить роль денег при проведении выборов»1.

Существующая практика информационных посредников по модерации пользовательского контента также вызывает вопросы. Учитывая колоссальные объемы информации, проходящей через медиаплатформы, ее фильтрация осуществляется в основном автоматическими (т.е. с помощью алгоритмов) или полуавтоматическими методами, что повышает риск ее неверной интерпретации и последующей блокировки как «экстремистской»2 или нарушающей авторские права3. Вместе с тем активность информационных посредников по выявлению

иудалению незаконного и нежелательного контента справедливо рассматривается некоторыми исследователями как переход правоприменительной функции от государства к частным компаниям, что создает угрозу нарушения права на свободу выражения мнения при одновременном нарушении принципов законности, пропорциональности

исправедливого судебного разбирательства4.

Комитетом Министров Совета Европы 04.04.2020 была принята Рекомендация CM/Rec(2020)1 «О воздействии алгоритмических систем на права человека»5. Приложение к указанной Рекомендации содержит Руководящие принципы для оценки воздействия алгоритмических систем на права человека, которые устанавливают обязательства

1  См.: Feasibility study on the use of internet in electoral campaigns. Committee of experts on Media Pluralism and Transparency of Media Ownership (MSI-MED (2016)10rev3). Council of Europe. 2017. URL: https://rm.coe.int/draft-feasibility-study-on-the-use-of-internet-in- electoral-campaigns-/168075ba72

2  См.: Hess, A. How YouTube’s Shifting Algorithms Hurt Independent Media. The New York Times, 17 April 2017. URL: https://www.nytimes.com/2017/04/17/arts/youtube-broad- casters-algorithm-ads.html?_r=0

3  См.: Erickson, K., Kretschmer, M. “This Video is Unavailable”: Analyzing Copyright Takedown of User-Generated Content on YouTube, 9 (2018) JIPITEC 75. URL: https://www. jipitec.eu/issues/jipitec-9-1-2018/4680

4  См.: Algorithms and Human Rights. Council of Europe Study DGI (2017) 12. Р. 19. 5  См.: Recommendation CM/Rec(2020)1 of the Committee of Ministers to member States

on the human rights impacts of algorithmic systems (Adopted by the Committee of Ministers on 8 April 2020 at the 1373rd meeting of the Ministers’ Deputies).

200

Соседние файлы в предмете Предпринимательское право