ЕС готовит первый в мире закон об искусственном интеллекте

ЕС готовит первый в мире закон об искусственном интеллекте

ЕС готовит первый в мире закон об искусственном интеллекте

Евросоюз готовит первый в мире закон, регулирующий искусственный интеллект. Первый важный шаг уже сделан – Европарламент одобрил правила, гарантирующие, что искусственный интеллект не станет угрозой. Эти меры предстоит обсудить с государствами-членами до принятия окончательного варианта закона, который ожидается в следующем году.

Искусственный интеллект можно определить как способность машины демонстрировать умения, присущие людям – рассуждать, учиться, планировать или творить. Это ключевая технология будущего, которая развивается очень быстрыми темпами и находит все больше полезных применений – в сфере медицины, транспорта, производства.

Однако существует и ряд рисков для потребителей. Поэтому Евросоюз определяет области, в которых использование искусственного интеллекта может нести высокие риски, и вводит четкие правила и запреты, в каких случаях его нельзя использовать. Об этом заявила председатель Европарламента Роберта Метсола:

ЕС готовит первый в мире закон об искусственном интеллекте

"Во-первых, технологии развиваются, инновации двигают нас вперед и открывают новые возможности. Как законодатели, мы должны воспользоваться этими возможностями. Мы не можем позволить себе стоять на месте и бояться будущего. Во-вторых, двигаясь вперед, мы нуждаемся в четких ограничениях для искусственного интеллекта. И здесь есть момент, с которым нельзя делать компромисс. Каждый раз, когда технологии развиваются, они должны идти рука об руку с нашими фундаментальными правами и демократическими ценностями".

Приоритет Европарламента заключается в том, чтобы системы искусственного интеллекта были безопасными, с ясными правилами и ясным происхождением, не дискриминировали группы людей и не наносили вреда окружающей среде. Кроме того, технологиями должны управлять люди, а не автоматические системы. Брюссель устанавливает уровни риска, на основании которых вводит соответствующие ограничения.

Среди предлагаемых мер – полный запрет на использование искусственного интеллекта для биометрической слежки, распознавания эмоций и профилирования полицией. Что-то очень важное – системы с генеративным искусственным интеллектом, такие как ChatGPT, должны явно указывать, что контент создан искусственным интеллектом.

Европейский парламент считает высокорисковыми системы искусственного интеллекта, используемые для влияния на избирателей на выборах, такие как приложения с искусственным интеллектом в социальных сетях. До выборов в Европарламент в июне следующего года закон не вступит в силу, отметила Роберта Метсола, но подчеркнула, что принимаются меры для предотвращения вмешательства в выборы:

"Закон об искусственном интеллекте имеет двухлетний срок транспонирования, что означает, что он не вступит в силу до даты выборов, но Закон о цифровых услугах вступит в силу. Он вступает в силу 1 сентября. Это означает, что этот акт может помочь в борьбе с дезинформацией и вмешательством в выборы, в первую очередь путем предоставления правил удаления незаконного контента. Фактически, закон об ИИ будет регулировать системы, которые могут использоваться для создания и распространения такого контента".

Одним из рисков при разработке искусственного интеллекта является интеграция разного рода предубеждений. Избежать этого компаниям помогло бы внедрение регламентов на европейском уровне, считает IT-эксперт Георги Костадинов, использующий возможности искусственного интеллекта в сфере медицины:

ЕС готовит первый в мире закон об искусственном интеллекте

"Если сам человек предубежден к определенной группе людей и при создании данных вводит ее, то такие же предубеждения будут и у самого искусственного интеллекта. У нас были такие примеры с Google и с их системой распознавания лиц, где она с трудом распознавала афроамериканцев и приматов. Это была очень большая проблема 5 лет назад. К счастью, она была быстро решена. Основной метод и способ ее решения – это когда есть указания при создании этих данных.

Такая директива, которую вводит ЕС, помогла бы компаниям, разрабатывающим искусственный интеллект, создавать данные по какому-то, более ясному способу и, соответственно, с ясностью, какая предубежденность может присутствовать в них. Это может заставить компании использовать инструменты, которые автоматически распознают предубежденности и предотвращают их в данных".

Как и любую технологию, искусственный интеллект можно использовать как в хороших, так и в плохих целях, в зависимости от того, в какие руки он попадет, прокомментировал эксперт:

"Искусственный интеллект в нашей голове подобен ножу. К сожалению, он может быть как инструментом для приготовления еды на 300 человек, так и инструментом для убийства. Именно поэтому такие директивы должны сделать так, чтобы быстро распознавать неправильное применение искусственного интеллекта, или в областях, где его трудно распознать, ограничить использование этой технологии. Одним из таких примеров может быть безопасность. Алгоритм может быть использован как для предотвращения террористических атак, так и для их создания".

ChatGPT революционизирует искусственный интеллект:

"Он создал чрезвычайно сильный алгоритм, который может генерализировать из множества данных и соответственно может создавать новый контент на основе этих данных. В настоящий момент ИИ знает то, что знаем мы. Это очень важная вещь, о которой, кажется, многие люди не предполагают. Если мы примем, что можем собрать все данные и знания в мире и обучить алгоритм, он все равно будет знать то, что люди в мире могут и к чему имеют доступ, то есть, он не может знать вещи, которые мы не знаем на данном этапе.

Однако я бы сказал, что главная проблема, которую создает ChatGPT, это зависимость людей от него, и мы будем видеть все больше и больше людей, использующих его. Я думаю, что эту технологию следует использовать с немалой долей критического мышления".

ЕС готовит первый в мире закон об искусственном интеллекте

ChatGPT представляет собой своеобразную "угрозу" для системы образования, если она не изменится, считает эксперт:

"Если мы вернемся назад, с появлением Google, система образования также имела аналогичный тип "awakening call", то есть "пробуждающий ответ" и трансформацию. Внезапно человечество получило доступ ко всей информации, которая опубликована онлайн. А теперь через ChatGPT не только есть доступ ко всей этой информации человечества, но и можно генерировать новый контент на ней.

Так что система образования должна трансформироваться в направлении, в котором она прибегает не к методам, с помощью которых можно определить, используется ChatGPT или нет, а скорее к вопросам, экзаменам, тестам, которые оценивают не насколько человек запомнил основу материи, а оценивают, насколько он понял эту материю".

ЕС готовит первый в мире закон об искусственном интеллекте

Новые технологии и искусственный интеллект со знаком "плюс":

"Они уже работают на благо человечества. Например, одной из таких областей является здравоохранение. Есть технологии, которые автоматически контролируют больничные койки, датчики жизненных показателей и данные людей и в случае каких-либо отклонений оповещают специалиста. Есть технологии, которые направляют его во время оперативного вмешательства. Есть технологии, автоматически распознающие и рано диагностирующие онкологические и тяжелые заболевания.

В сфере транспорта тоже. Почти каждый автомобиль, который производится в настоящее время, оснащен каким-либо искусственным интеллектом, который постоянно следит за дорожной обстановкой и человеком. В случае, если что-то случится с дорожной обстановкой или с людьми в машине, предупреждает и даже своевременно совершает автоматические действия, такие как автоматическая остановка и вызов медицинской помощи", – рассказал IT -эксперт Георги Костадинов. 

Перевод Десиславы Семковской

Этот материал подготовлен в рамках европейской радиосети "Евранет плюс". Звуковой файл на болгарском языке можно прослушать ЗДЕСЬ


Источник: http://bnr.bg/

Оставить комментарий

Убедитесь, что Вы ввели всю требуемую информацию, в поля, помеченные звёздочкой (*). HTML код не допустим.

Наверх