На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Новости науки

6 933 подписчика

Свежие комментарии

  • Dim Rex
    поднять оперативку  по   источникам   =Маня  -Ваня итдитп  = по опер  части  гулага =лагерей  то   всплывали   такие ..."Неизвестная раса...
  • Dim Rex
    История  как  таковой  нет  Был  потоп   погибла     цивилизация     массовый исход из  СЕ +Верус =severus =север на ..."Неизвестная раса...
  • Александр Зонов
    Прошло почти 7 лет. Где эти мобильные АЭС? "Пандемия" коронавируса и проведение СВО на Украине - не при чём. Даже есл...Минобороны РФ к 2...

Стивенг Хокинг: Искусственный интеллект может стать последним достижением человечества

 

Ведущие учёные, специалисты в области информационных технологий и предприниматели и разных стран разместили на сайте Future Life Institute открытое письмо с призывом не допустить создания «роботов-убийц». Речь идёт об автономных системах вооружения, работа над которыми тесно связана с вопросами морали и этики.

Авторы письма уверены, что искусственный интеллект может стать последней революцией в методах ведения войны. Подробности в материале RT.

Развитие современных военных технологий всё чаще направлено на разработку оружия, работающего в автономном режиме. На этот раз предупреждение об угрозе создания боевых роботов прозвучало со стороны учёных. Более тысячи инженеров и исследователей подписали открытое письмо. Оно было представлено на ежегодной Международной конференции по искусственному интеллекту, которая прошла в Буэнос-Айресе. Среди подписавших документ — Тоби Уолш, профессор университета Нового Южного Уэльса и специалист в области искусственного интеллекта.

«Создание автономного наступательного оружия, которое мы призываем запретить, может спровоцировать очередную гонку вооружений, если ничего не предпринять. Некоторые утверждают, что эта технология может изменить способы ведения войны так же, как два предыдущих изобретения — порох и ядерная бомба. Разработку автономных видов оружия не остановить, но мы можем запретить компаниям-производителям его продавать. Так, например, ООН наложила запрет на использование ослепляющего лазера», — рассказал Уолш.

Среди подписавшихся — всемирно известные эксперты в области высоких технологий и робототехники.

Физик Стивен Хокинг опасается, что дальнейшее развитие искусственного интеллекта может стать последним значимым событием в истории человечества, если оно не поймёт, как избежать связанных с этим рисков.

Один из основателей Apple Стив Возняк уверен: велика вероятность того, что роботы поумнеют настолько, что будут думать за нас.

Тоби Уолш убеждён, что эту проблему должно решать общество в целом.

«Опасность заключается не в развитом искусственном интеллекте, а в недоразвитом. Мы ведь доверяем самые важные функции не самым умным программам. Есть гораздо более злободневные проблемы, чем те, что показаны в «Терминаторе» и других подобных фильмах. И их нужно решать сообща. Наша задача — объяснить людям, какие есть возможности использования боевой техники. А дальше мы должны подумать, как адаптировать нашу жизнь, наши законы и наше общество к изменениям, которые она принесёт», — заключил профессор.

Ссылка на первоисточник
наверх