Алексей Владимирович Баранов предлагает Вам запомнить сайт «✔ Миссия ООН в СНГ»
Вы хотите запомнить сайт «✔ Миссия ООН в СНГ»?
Да Нет
×
Прогноз погоды

Публикация ведётся в рамках Интегрального Проекта в Гуманитарной Науке и Культуре. Социальные Цели: Просвещение, Забота, Справедливость, Соучастие, Нравственность, Процветание.

Об Искусственном Интеллекте: четыре закона человечества

развернуть

Бранислав Чика, участник Программы управления информационными системами

Университета Ливерпуля онлайн и с добрым руководством и редактированием от д-ра Ашока Банерджи , Эзаны Ассефы , Акефетей Эфраим Мамо и Рамеша Сингха

С недавним подъемом в развитии искусственного интеллекта (ИИ) и робототехники многолетний аргумент в пользу его этического использования был перезапущен, разделив ведущих мыслителей человечества на два разных лагеря: ИИ - это опасный лагерь , в котором хранятся довольно большие имена академические круги и бизнес, такие как профессор Стивен Хокинг и Элон Маск, чтобы упомянуть некоторых, предупреждают, что неэтичное использование потенциально может привести к тому, что ИИ захватит мир от людей, в то время как другой лагерь, полный лагерь вперед , во главе с Марком Цукербергом и Ларри Страница продвигает развитие отрасли и фокусируется на ее преимуществах.

Элон Муск назвал ИИ « фундаментальным экзистенциальным риском для человеческой цивилизации » (Sulleyman, 2017). Он умоляет создателей замедлять и регулировать технологию до того, как она станет угрозой для человечества. Муск также неоднократно заявлял, что он инвестировал в проект Deep Mind Alphabet только для того, чтобы следить за ним и следить за тем, чтобы он не вышел из-под контроля. Профессор Хокинг продолжает утверждать, что « развитие полного искусственного интеллекта может означать конец человеческой расы » (Cellan-Jones, 2014) .https: //www.vanityfair.com/news/2017/03/elon-musk -billion-доллар-крестовый к стоп-ай-пространство-х

Об Искусственном Интеллекте: четыре закона человечества

В резком контрасте с Элоном Маском Марк Цукерберг говорит, что «... в ближайшие пять-десять лет ИИ будет доставлять так много улучшений в качестве нашей жизни ... » и что те «... которые являются скептиками и пытаются барабанить эти сценарии конца света ... «являются « ... отрицательными и в некотором роде ... довольно безответственными ... »(Клиффорд, 2017). С другой стороны, Сергей Брин, сооснователь из Google говорит , что «... много вещей , которые люди ( или ) были ( делать ), в течение прошлого века, ( будет ) заменены машинами ... » с Ларри Пейдж добавляет, что « 90% людей раньше были фермерами, так что это было раньше. Это неудивительно » (Gibbs, 2014).

Но разве мы не опережаем себя?

Где общепризнанные «четыре закона человечества» ? Хотя в Всеобщей декларации прав человека Организации Объединенных Наций (1948 г.) четко указывается, что такое права человека, и определяет более четырех из них, одни и те же права человека ежедневно подвергаются жестокому обращению буквально с каждым существующим правительством. Некоторые из них, непосредственно удушающие права человека своего населения (HRW, 2018) и другие посредством ведения конфликтов, войн (UCDP и др.) И санкций (BSCN, 2018, United Nations, nd) на людей за пределами их страны. Как мы можем с прямым лицом требовать от ИИ соблюдать законы, которые мы не готовы или не готовы принять сами?

Человеческая раса воевала с собой с незапамятных времен (Peacey, 2016), и мы очень хорошо справились с этим. За последние полтора десятилетия после Второй мировой войны нам удалось накопить так много оружия массового уничтожения (ICAN, nd), что мы можем легко уничтожить не только всех людей, но, скорее всего, все многоклеточные организмы. Эндрюс (2017) утверждает, что «если бы все одно ядерное снаряжение исчезло, то в течение нескольких лет солнечная радиация, достигающая поверхности Земли, почти на 100% уменьшилась бы на 100 лет, то есть планета была бы окутана вечной тьмой для этого времени ". Нет света, никакого симбиоза - никакого симбиоза нет растений, нет растений нет .... ну, вы получите картину. И с какой целью? Конечно, не потому, что мы любим друг друга.

Прежде чем мы с прямым лицом можем потребовать, чтобы « робот не мог причинить вред человечеству или через бездействие позволить человечеству нанести вред », мы не должны требовать, чтобы « человек не мог нанести ущерб человечеству или, позволяют человечеству нанести вред »? И если мы это сделаем, сколько человек будет виновато? Будут ли виноваты все мы, кто использует пластиковые пакеты, которые убивают моря, сорняки или спреи, которые убивают пчел, или оружие, которое непосредственно убивает других людей? И если мы хотим, мы должны просто заблокировать все человечество?

Хотя морально сомнительно просить роботов не наносить вред людям или человечеству в этом отношении, тем более что мы сами не следуем этим законам - это сохранение вида, который не соблюдает эти законы и уничтожает как себя, так и окружающих действительно ли морально и этично? Если мы настолько разрушительны для себя и для нашей окружающей среды, разве было бы лучше, если бы мы просто родились и уступили место «разуму», который соблюдает более высокие законы существования?

Что произойдет, если ИИ узнает от нас?

Имея в виду способность человека к разрушению и братоубийству и тот факт, что любой интеллект узнает от своих создателей (Рыцарь, 2017), не слишком надуман, чтобы предположить, что любой ИИ, достаточно развитый, чтобы начать учиться у нас, также научиться убивать нас? Если это так, разве нелегко утверждать, что любой интеллект, который человечество на этой стадии своего социального развития тоже породило бы, также будет столь же ошибочным, как и мы? И если ИИ становится настолько же несовершенным, как и мы, потому что он учится у нас, действительно ли мы этого хотим?

Какими будут результаты более широкого внедрения ИИ?

Я считаю, что сторонники ИИ, хотя, скорее всего, руководствуются благими намерениями, возможно, забывая о нескольких проблемах:

1) В то время как ИИ может, несомненно, создать конкурентные преимущества для своих пользователей он будет:

  • Создать большее разделение между богатыми и бедными;
  • Создать большее разделение между развитыми и развивающимися странами;
  • Быть бесполезным или использоваться в военных целях;

2) В то время как в экономически развитом мире экономия времени может быть использована для более творческой работы, в экономически развивающемся мире экономия времени просто означает, что люди теряют работу, поэтому будут:

  • Больше экономических и социальных волнений;
  • Больше преступлений и отсутствия безопасности; а также
  • Больше конфликтов и войн.

3) Вышеизложенное приведет к более перемещенным внутри страны лицам и беженцам, которые неизбежно откроют глаза на развитый мир для безопасности и охраны, поэтому максимальная иммиграция (как законная, так и незаконная).

Что мы можем с этим поделать?

Недостатки технологии, к сожалению, не помешают людям развивать ее даже в случаях, например, в случае ИИ, где недостатки будут в корне влиять на человечество. Сказав это, мы можем многое сделать для уменьшения воздействия:

1. Как и Элон Муск, активно занимайтесь «слежением» над чем-либо, связанным с ИИ. Учитесь, обучайте себя и окружающих, участвуйте в гражданских наблюдениях за технологией, ее последствия и уменьшите ее потенциально вредное применение. В конце концов, наша жизнь потенциально опасна, поэтому это вопрос самосохранения;

2. Давить правительствам на принятие основных услуг, таких как доход, жилье и медицинские услуги. Это в долгосрочной перспективе обеспечит столь необходимую отсрочку от последствий ИИ, что, несомненно, приведет к потере комфорта и, возможно, к потере средств к существованию и жизни. Наличные средства, необходимые для предоставления этих услуг, могут быть легко связаны с сокращением оборонных бюджетов по всему миру или даже с налогообложения самой технологии ИИ;

3. Влиять на полномочия законодательно регулировать основные человеческие потребности, такие как воздух, продовольствие, вода, которые должны быть закреплены на глобальном и национальном уровнях. Прежде чем мы скажем ИИ, как вести себя по отношению к людям, мы должны принять и закрепить потребности так же, как мы закрепляем ценности. Какое право человека имеет ценность без основных потребностей? Как мы можем сказать, что каждый человек имеет право жить, если мы не обеспечим эти основные потребности, такие как воздух, вода и еда, от каждого из нас зависит?

4. Принятие национальных и эволюционирующих глобальных механизмов управления для обеспечения соблюдения и поддержания основных прав и услуг во всем мире. В то время как это будет иметь большой импульс от все более насущных ксенофобских наций, единственным способом обеспечения соблюдения будет сокращение национального и улучшение глобального управления. Хотя есть национальные государства, для примера будет трудно продать американцу или россияну, что сомалийская жизнь одинаково важна или что мы все такие люди равны.

5. Перемещение человеческого вида на другие планеты и луны не только потому, что нам нужно стать многопланетными видами, чтобы избежать глобальных катаклизмов, а потому, что мы должны предоставить большие массы людей альтернативой созданию ценности - как для их финансовой, так и психологической благополучия. Как сказал Элон Муск в TED (2017), поездка на Марс - это не просто вопрос продления вида, но и вопрос предоставления вдохновения для бесчисленных молодых людей, предоставляя им альтернативу обыденному существованию, создавая удивительную цель как колонизация нового мира и позволяющая им мечтать о возможностях, кроме перенаселенной, загрязненной и когда-либо ресурсоемкой Земли.

В приведенном выше списке перечислены лишь некоторые из тех вещей, которые мы можем сделать, чтобы помочь человечеству обрести неизбежное появление ИИ на мировой арене. Раньше мы начинаем все лучше - на самом деле, скорее мы начнем, может означать разницу между нашим выживанием и нашей коллективной кончиной.

Справка:

Эндрюс, Р. (2017) Что бы случилось, если бы каждый одиночный ядерщик в мире отправился в то же время? , Доступно по адресу: http://www.iflscience.com/physics/what-would-happen-if-every-single-nuke-in-the-world-went-off-at-the-same-time/all/ (Получено 7 февраля 2018 года).

Азимов Р. (1985) Роботы и империя , Книги Графтона, Лондон.

BSCN (2018) Санкции Список рисков СТРАНЫ , Доступно по адресу: http://www.bscn.nl/sanctions-consulting/sanctions-list-countries (Доступен 07 февраля 2018 года).

Кларк Р. (1994). Законы о робототехнике Азимова: последствия для информационных технологий. 2. Компьютер, 27 (1), с. 57-66.

Кеман-Джонс, Р. (2014) Стивен Хокинг предупреждает, что искусственный интеллект может положить конец человечеству, Доступно по адресу: http://www.bbc.com/news/technology-30290540 (Доступен: 6 февраля 2018 г.).

Клиффорд, C. (2017) https://www.cnbc.com/2017/07/24/mark-zuckerberg-elon-musks-doomsday-ai-predictions-are-irresponsible.html (Доступен 6 февраля 2018 года).

Dowd, M. (2017) МИЛЛИАРД ДОЛЛАРОВ ЭЛОНА МУСКА ДЛЯ ОСТАНОВКИ АПОКАЛИПСА А.И. , Доступно по адресу: https://www.vanityfair.com/news/2017/03/elon-musk-billion-dollar-crusade-to- stop-ai-space-x (Доступен 6 февраля 2018 года).

Гиббс, S. (2014) Основатели Google о будущем здоровья, транспорта и роботов, доступны по адресу: https://www.theguardian.com/technology/2014/jul/07/google-founders-larry-page-sergey -brin-interview (Доступен: 6 февраля 2018 года).

Всемирный доклад HRW (2018) , доступный по адресу: https://www.hrw.org/sites/default/files/world_report_download/201801world_report_web.pdf (Доступен: 6 февраля 2018 года).

ICAN (nd) Ядерные арсеналы , Доступные по адресу: http://www.icanw.org/the-facts/nuclear-arsenals/ (Доступен 7 февраля 2018 года).

Рыцарь, W. (2017) Темный секрет в сердце ИИ , доступен по адресу: https://www.technologyreview.com/s/604087/the-dark-secret-at-the-heart-of-ai/ ( Получено 7 февраля 2018 года).

Peacey, S. (2016). Всегда ли люди воевали? , Доступно по адресу: http://theconversation.com/have-humans-always-gone-to-war-57321 (Доступен: 7 февраля 2018 г.).

Sulleyman, A. (2017) Elon Musk: AI является «фундаментальным экзистенциальным риском для человеческой цивилизации», и создатели должны замедляться , доступны по адресу: http://www.independent.co.uk/life-style/gadgets-and- tech / news / elon-musk-ai-human-цивилизация - экзистенциальный риск-искусственный интеллект-создатель-slow-down-tesla-a7845491.html (Доступен 6 февраля 2018 года).

TED (2017) Будущее, которое мы строим - и скучно . Доступно по адресу: https://www.ted.com/talks/elon_musk_the_future_we_re_building_and_boring/transcript#t-448542 (Доступен 12 февраля 2018 года).

UCDP (nd) Количество конфликтов, доступно по адресу: http://ucdp.uu.se (Доступен: 8 февраля 2018 г.).

Организация Объединенных Наций (1948 год) Всеобщая декларация прав человека, доступная по адресу: http://www.un.org/en/universal-declaration-human-rights/(Доступен: 6 февраля 2018 года).

Организация Объединенных Наций


Источник →

Опубликовал Алексей Владимирович Баранов , 14.02.2018 в 03:04
Алексей Владимирович Баранов
Алексей Владимирович Баранов

Выбираем только лучшее...

Статистика 1
Показы: 1 Охват: 0 Прочтений: 0

Комментарии

Показать предыдущие комментарии (показано %s из %s)
Показать новые комментарии
Читать

Поиск по блогу

Люди

7 пользователям нравится сайт unmission.su

Последние комментарии

Риддик .