Вежливые люди
ВЛ / Статьи

Возможно ли восстание машин? Учёные обсуждают опасность ИИ

25-09-2016, 09:12
...
546
 
 

Возможно ли восстание машин? Учёные обсуждают опасность ИИ

Некоторые люди считают, что скоро машины восстанут против людей в силу преимущества их интеллекта над человеческим, и люди будут втянуты в войну уже не друг с другом. Орен Этциони, ученый из Америки, сделал опрос среди своих коллег, и итоги оказались весьма очевидными: большинство трудящихся во имя науки отрицают возможность гибели человеческой расы от противоборства с Искусственным Интеллектом. 

Два года назад философ Ник Бостром создал книгу «Суперинтеллект: пути, опасности, стратегии». Там обосновывалась опасность ИИ, точнее, самообучения машин, что неизбежно приведет к перевесу в интеллекте в сторону ИИ, а это уже может грозить истреблением человечества. Компьютеры смогут заменить полностью всю человеческую деятельность, начиная от умственной и заканчивая физической работой. Труды Ника Бострома вызвали у публики "восторг", выразившийся в большой популярности книги и быстром получении звания бестселлера. 

В одном номере Technology Review Орен Этциони директор Института ИИ, имеющий множество заслуг в изучении компьютерных технологий и являющийся истинным экспертом в своем деле, выставил итоги опроса, в котором ставились на обсуждения вопросы опасности ИИ и его достижения. Орена взволновала не только книга про суперинтеллект, но и тревожные статьи в американских средствах массовой информации, которые являлись зеркалом общего сомнения по поводу развития ИИ и возможной опасности для человечества. 

Лицо института ИИ решил разобраться и понять причины таких резких заявлений Бострома. Он выяснил, что вся работа философа основана на нескольких исследованиях ИИ пятилетней давности. Не понимая и игнорируя суть комплекса этих экспериментов, Ник Бостром заявляет, что к концу двадцать первого века компьютерное мышление нагонит человеческий интеллект на 90%. 

Орен Этциони решил выяснить серьезность этих выводов и мнение научных деятелей. Ради этой цели он опросил около двухсот членов Американской ассоциации по изучению искусственного интеллекта. По описанию Ника Бострома ИИ - это такой интеллект, который выше человеческого во всем, что только может он производить. "Когда же мы достигнем этого интеллекта?", - такая была тема для обсуждения. 

Двадцать из опрошенных уверены, что искусственного интеллекта не удастся никак достичь. Около десятка специалистов посчитали, что ИИ догонит человеческий в ближайшем будущем, а остальные верят в достижение суперинтеллекта, но в далеком будущем. Опрос был анонимным, но открыто высказали свое мнение полсотни участников, среди которых были умнейшие люди современности. 

Кое-кто из опрошенных экспертов, хоть и анонимно, но выразили свое возмущение методом Ника Бострома и объявили предрассудком категорический страх перед искусственным интеллектом, ведь нельзя видеть в нем только опасность. 

Орен Отциони подвел итог, что научные доводы, использованные в работах философа, оказались недостаточными для ученых, а научную ценность такие труды представляют мизерную. 

Однако сейчас все равно существует ворох переживаний насчет использования ИИ в нашей жизни, но предсказание его скорейшего появления основаны на пустых доводах. Еще очень нескоро компьютер станет способным полноценно заменять человеческий мозг. 

Стоит видеть в появлении искусственного интеллекта тот широкий аспект положительных событий, сопровождающих внедрение его в разнообразные сферы человеческой деятельности, например, сокращение количества врачебных оплошностей, предотвращение аварий. Ученые считают, что также возможно симбиотическое соединение технологии ИИ и человеческого мозга для создания мощной умнейшей машины. 


0

Оцените новость
Новости партнеров:


Комментировать


Наша группа Facebook:
  • Яндекс.Метрика

  • Нам пишут
    Все публикуемые материалы принадлежат их владельцам. Использование любых материалов, размещённых на сайте, разрешается при условии размещения кликабильной ссылки на наш сайт.
    Реестровая запись Роскомнадзора № A-1584-97-BLG
    По всем вопросам, жалобам и предложениям: vegchel@yandex.ru
Регистрация