Следует ли относиться к искусственному интеллекту как к человеку

Искусственный интеллект (ИИ) пока не достиг уровня человека. Но с каждым годом технологии все больше сокращают этот разрыв, и возникает множество этических проблем.

Один из важных вопросов: насколько искусственный интеллект будет похож на человека? Будут ли они думать самостоятельно или иметь желания и эмоции? Должны ли они иметь юридические права, как люди? Следует ли заставлять их работать или нести ответственность, если что-то пойдет не так?

В этой статье мы подробно рассмотрим эти и другие вопросы.


ЭтикаAI: Почему о ней важно думать


АИ и машинная этика - две смежные области, которые набирают все большую популярность. Они связаны с несколькими важными аспектами технологии, включая то, как мы проектируем, используем и обращаемся с машинами. Большинство этих вопросов связано с вопросами безопасности по отношению к человеку.

Но этика ИИ начинает выходить за рамки этих основополагающих вопросов и переходить на более спорную территорию. Представьте себе, что в ближайшие несколько десятилетий будет разработан сверхинтеллектуальный ИИ, который потенциально обладает сознанием, выражает желания, чувства или может испытывать страдания. Поскольку мы даже не знаем, что такое человеческое сознание и как оно возникает, это не такое уж надуманное предложение, как кажется на первый взгляд.

Как мы будем определять и лечить такой ИИ? И каковы некоторые этические проблемы, с которыми мы сталкиваемся сейчас при нынешнем уровне развития ИИ?

Давайте рассмотрим несколько этических дилемм, с которыми мы сталкиваемся.


Должен ли ИИ получить гражданство?


В 2017 году правительство Саудовской Аравии предоставило полное гражданство Софии - одному из самых похожих на жизнь роботов, управляемых искусственным интеллектом. София может принимать участие в разговоре и способна имитировать 62 выражения лица человека. София - первый нечеловек, у которого есть паспорт, и первый, у которого есть кредитная карта.

Решение сделать Софию гражданином вызвало споры. Некоторые считают это шагом вперед. Они считают, что важно, чтобы люди и регулирующие органы начали уделять больше внимания вопросам в этой области. Другие считают это оскорблением человеческого достоинства, заявляя, что ИИ еще не близок к тому, чтобы стать человеком, и что общество в целом не готово к гражданам-роботам.

Дебаты становятся жаркими из-за прав и обязанностей, которые предоставляются гражданам. К ним относятся возможность голосовать, платить налоги, вступать в брак и иметь детей. Если Софии разрешено голосовать, то кто на самом деле голосует? При нынешнем состоянии искусственного интеллекта, может быть, голосует ее создатель? Другая острая критика заключается в том, что София получила больше прав, чем женщины и рабочие-мигранты Саудовской Аравии.


AI и IP: должны ли они владеть правами на то, что они создают?


Дискуссии вокруг вопросов интеллектуальной собственности (ИС) и конфиденциальности достигли своего апогея, а теперь появилась еще одна проблема. ИИ все чаще используется для разработки контента, создания идей и выполнения других действий, подпадающих под действие законов об ИС. Например, в 2016 году The Washington Post выпустила Heliograf - ИИ-репортера, который за первый год работы подготовил почти тысячу статей. Некоторые отрасли промышленности также используют ИИ для анализа огромных объемов данных и разработки новых продуктов, например, фармацевтическая промышленность.

В настоящее время ИИ считается инструментом; все права на ИС и юридические права принадлежат его владельцу. Однако ЕС ранее рассматривал возможность создания третьего субъекта, "электронной личности", которая станет юридическим лицом с точки зрения законов об ИС.

Некоторые утверждают, что если ИС не будет принадлежать владельцу машины, то не будет стимула для создания "творческого" ИИ. Если ИС перейдет к ИИ, зачем кому-то их разрабатывать? И из-за этого, по их мнению, будет наблюдаться недостаток инноваций.


ИИ и будущее работы


Роль искусственного интеллекта в работе - это своего рода головоломка. В последние годы мы наблюдали неоднозначное использование ИИ в алгоритмах найма и увольнения, когда ИИ непреднамеренно относился с предубеждением к определенным демографическим группам. ИИ также постепенно заменяет все более высокие уровни человеческого труда - сначала ручной труд, а теперь и умственный труд более высокого порядка.

Что с этим делать? И что произойдет, если будет разработана некая форма сознательного ИИ? Нужно ли заставлять его работать? Компенсировать его труд? Предоставить ему права на рабочем месте? И так далее.

В одном из эпизодов "Черного зеркала" (шоу, печально известного тем, что оно засоряет наши головы) девушка по имени Грета создает цифровой клон своего сознания. Клону говорят, что его предназначение - выполнять обязанности, связанные с жизнью Греты. Но, обладая сознанием Греты, клон считает себя Гретой. Поэтому, когда клон отказывается быть рабом, его создатели пытками заставляют его подчиниться. В конце концов, клон идет работать на Грету.

Нужно ли заранее предоставлять определенные права ИИ в случае, если он считает себя человеком или испытывает страдания?

Для того чтобы сделать еще один шаг вперед, давайте рассмотрим вопрос о том, должен ли ИИ быть свободно выключен или выведен из эксплуатации. В настоящее время, когда что-то идет не так, мы можем просто выдернуть вилку из розетки и выключить ИИ. Но если бы у ИИ были юридические права и это было бы невозможно, что было бы возможно?

Известным примером сверхинтеллектуального ИИ, который пошел не так, является максимизатор скрепок. Это ИИ, который был разработан для создания максимально возможного количества скрепок. Учитывая, что ИИ достаточно мощный, можно предположить, что он решит превратить людей, а затем и все остальное, в скрепки.


Должен ли ИИ нести ответственность?


ИИ уже несет ответственность за многие решения, которые влияют на жизнь людей. На самом деле, ИИ уже используется во многих областях, которые непосредственно затрагивают права человека, что вызывает беспокойство, учитывая, насколько предвзятыми кажутся многие алгоритмы ИИ.

Например, ИИ используется крупными компаниями для принятия решений о том, кого следует нанимать на работу. Он также используется в некоторых странах для определения того, кто должен получать социальное пособие. Что еще более тревожно, он используется полицией и судебными системами для определения приговора обвиняемым. И это еще не все.

Что происходит, когда ИИ совершает ошибки? Кто несет ответственность - те, кто его использует? И наоборот, следует ли наказывать сам ИИ (и если да, то как это будет происходить)?


ИИ и человечество


ИИ никогда не станет человеком. Но он может быть сознательным, испытывать страдания, иметь желания и стремления. Если такой ИИ будет создан, будет ли неэтичным заставлять его работать, свободно выводить из эксплуатации или делать с ним то, что причиняет ему страдания?

Хотя ИИ все еще находится в зачаточном состоянии, он уже используется для решения задач, которые непосредственно влияют на жизнь людей, иногда кардинально. Необходимо принять решение о том, как регулировать программное обеспечение, которое будет наилучшим для человеческих жизней и жизней ИИ, если это когда-нибудь произойдет.

Ваше имя: *
Ваш e-mail: *
Код: Кликните на изображение чтобы обновить код, если он неразборчив
Введите код: