Мнение | |

Цифровое право в Грузии: персональные данные и искусственный интеллект

3 декабря, 2020 | Михеил Гвадзабия
Цифровое право в Грузии: персональные данные и искусственный интеллект

Искусственный интеллект (ИИ) уже давно не является технологией будущего. Во многих направлениях ИИ — технология нынешних времен. Хоть он и делает жизнь людей легче, производители и потребители стоят перед многими вызовами, один из главных — грань между пользой ИИ и защитой персональных данных.

Грузинское правительство хочет ответить на эти вызовы законодательными изменениями и в большей степени регулировать эту сферу. Неправительственный сектор также указывает на необходимость регулирования, но выделяет некоторые проблемные вопросы, которые могут нанести ущерб прозрачности и борьбе с коррупцией.

Эти и другие вопросы обсуждались на шестом Форуме по управлению Интернетом GeolGF 2020, который проходил 2-3 декабря в формате онлайн. В дискуссии упомянули подготовленный Службой государственного инспектора законопроект, подразумевающий изменения в автоматический обработке данных. С докладом по имеющейся европейской практике в этой сфере выступил глава управления информационного развития Совета Европы.

Искусственный интеллект — что это такое?

Вкратце, ИИ — алгоритм, с которым каждый день, будь то осознанно или нет, мы воздействуем. Умный алгоритм при помощи компьютера делает из данных визуальный материал.

ИИ действует независимо, но сначала получает инструкцию от человека, которую тот прописал в алгоритме. Именно благодаря алгоритму на главной странице YouTube появляются видео, которые вам могут быть интересны, а на Facebook в основном видна активность людей, с которыми вы чаще всего контактируете.

Правда, иногда вы можете думать, что умные алгоритмы знают о вас больше, чем хотелось бы? Если это так, то ничего страшного, вы не одни — в пору технологии как для разработчиков, так и для правительств одним из главных вызовов стала грань между ИИ и персональными, часто довольно деликатными данными.

Искусственный интеллект и персональные данные: почему это важно?

Обсуждаемый вызов возник из-за распространившегося применения ИИ. Лучшим примером могут послужить социальные сети, которые из года в год все больше используют умные, автоматизированные алгоритмы.

«Все это в конечном итоге дает работающим на ИИ системам возможность контролировать нашу онлайн-активность, что в прямом смысле является вмешательством в личную жизнь.

Соответственно, данные обретают огромную значимость — если что-то будет неправильно, то возможно, что нарушится такое фундаментальное право человека как неприкасаемость частной жизни», — рассказывает Бека Кенкадзе, юрист Службы государственного инспектора, специализирующийся на надзоре над частным сектором.

Дискуссия по этому вопросу всегда активна, но возникшая картина почти никогда не бывает однородной.

Например, в мае этого года сенат Франции на фоне разногласия и жарких дискуссий поддержал задействование аппликации, целью которой была превенция распространения коронавируса. Приложение было бы эффективным для сдерживания вируса и выявление контактов заболевших, но часть общества задавалась вопросом — как будут использоваться персональные данные, которые необходимо предоставить для использования аппликации?

Вот так и возникает дилемма для тех, кто создает ИИ и для тех, кто его регулирует. Они должны решить, как соблюсти баланс между использованием ИИ и защитой персональных данных так, чтобы не помешать развитию технологии.

Что делает государство?

Служба государственного инспектора Грузии в 2019 году представила законопроект, подразумевающий много изменений в компоненте обработки персональных данных. По словам авторов, изменения приближают грузинские законы к европейским стандартам.

«Одним из главных факторов для этих изменений стало то, что нынешняя редакция закона не может ответить на технологические вызовы и новшества, ставшие частью нашей жизни», — объясняет представитель ведомства Бека Кенкадзе.

Новый закон, как говорит Кенкадзе, расширяет права субъектов данных. Например, гражданин может отказаться от автоматической обработки данных если считает, что это негативно отразиться на его правовом, финансовом или другом положении.

По нынешней редакции закона сторона, которая обрабатывает данные обязана исправить, обновить, добавить, заблокировать, удалить или уничтожить данные, если те неточны или неполноценны или же если данные не обновлены и собраны/обработаны с нарушением закона.

Законопроект ведомства уточняет обстоятельства, в случае наступления которых субъект может озвучить свои требования. В их числе случай, когда обработка данных не требуется для выполнения изначальной цели. Обработка также прекращается тогда, когда субъект отзывает свое соглашение, представляющее единственную основу для процесса.

С другой стороны, в новом законопроекте по сравнению с нынешней редакцией стало меньше основ для обработки данных. Например, в новой версии закона открытый доступ к данным больше не будет являться законной причиной для их обработки.

Общественная организация «Международная прозрачность — Грузия» (TI) положительно оценила гармонизацию персональных данных с европейскими стандартами, но отметила некоторые проблемные вопросы. Один из них — сокращение причин для обработки данных.

«Согласно законопроекту, невозможно станет обрабатывать даже те данные, которые и так находятся в открытом доступе. Это изменение значительно и плохо отразится на прозрачности и доступности.

Законопроект не допускает обработки таких данных даже в тех случаях, когда целью является достижение общественных благ, таких как борьба с коррупций, прозрачность политического финансирования и так далее», — говорится в оценке организации.

В TI считают, что при наличии легитимной цели должна быть возможность обработки и так открыто доступных данных.

На вышеупомянутой конференции также обсуждали рекомендации и международный опыт которые помогут государству соблюсти баланс в будущем. В их числе — создание альтернативного сервиса, который в случае отказа от автоматической обработки, даст гражданам право на то, чтобы их данные обрабатывали живые люди.

«Для яичной скорлупы молоток не подойдет»

Представитель Совета Европы Йаник Менесор сравнивает ИИ с молотом, который отлично вбивает гвозди — то есть, решает проблемы. Но эта универсальность шаткая, если речь идет о проблеме с другой спецификой:

«Безусловно, будет отлично, если мы используем молоток для гвоздей. Но для яичной скорлупы молоток не подойдет. Соответственно, сначала мы должны понять, что может делать ИИ и например, каков статистический подход и что думают в академических кругах…

Когда у нас будет точная информация, можно будет вкладываться в этом направлении. Но если ИИ будет использоваться везде без строго регулирования, могут возникнуть проблемы. Совет Европы поддерживает обсуждение этого вопроса», — заявляет он.

Парламентская ассамблея Совета Европы уже утвердила общие принципы, которые создатели технологии должны учитывать при разработке программ с ИИ. В ассамблее также разговаривают о надобности правового регулирования с целью «уменьшения рисков для демократии, прав человека и верховенства закона».

Ответственность разработчика — думать не только о прибыли

Для уменьшения рисков инженер ИИ Гига Хочели рассуждает об ответственности разработчиков. По его словам важно, чтобы разработчики думали не только о прибыли, но и том, как будут использовать их продукт.

Для лучшего понимания важности расчета рисков, Чохели вспоминает организованную Гарвардским университетом «Неделю инноваций» 2016 года, на которой он присутствовал:

«Одна из последних бесед касалась регулирования, этики, технологий и виртуальной реальности. В ней участвовали человек 10-15.

Я задал вопрос — где те люди, которые ранее рассказывали о технологиях и компаниях, которые должны получить миллиардные прибыли. Получил очень прямой ответ от модератора — ни один из них не обладает достаточной квалификацией, чтобы беседовать об этих вопросах.

Это отчетливо показывает, перед какой проблемой стоит технологический сектор: мы, люди, создающие эти технологий, недостаточно квалифицированы для того, чтобы брать ответственность за наши технологий и принятые нами решения, вторгшиеся в жизнь миллиардов людей», — отмечает он.

Инженер ИИ акцентирует внимание на ошибках, которые характерны для бизнеса интернет-рекламы. По его словам, четкая цель автоматизированных алгоритмов — генерировать прибыль, на фоне чего часто страдают интересы пользователей.

В этом контексте он упоминает алгоритм YouTube, который выдает так называемый комплект рекомендованных видео после каждого просмотра.

«YouTube выдает рекомендации. Часто бывали случаи, когда оставшийся один ребенок получал психологическую травму после просмотра вредного для него контента».

На конференции Гига Чохели рассказал и о тех благах, которые обещает человечеству развитие ИИ, подчеркнув также важность координации для уменьшения рисков:

«Эрик Бринолфссон, глава департамента цифровой экономики Стэнфордского университета говорит, что развивая ИИ и робоэтику мы можем победить голод и бедность.

Однако, для этого необходимо регулирование и активное сотрудничество технологического сектора и законодательных органов».