Искусственный интеллект будущего будет похож на биологическую систему, подобную человеку

22.12.2018   16:01    1066

Несмотря на заметный прогресс нейронных сетей, до появления сильного искусственного интеллекта еще далеко, считают известные специалисты в области ИИ Демиса Хассабис и Джеффри Хинтон. Ученые рассказали изданию VentureBeat о современных проблемах ИИ и методах их решения.


Диагностика раковых опухолей; увеличение шансов на успешное ЭКО; победа над людьми в шахматы и видеоигры; управление автомобилем вместо человека — вот лишь несколько примеров достижений искусственного интеллекта за уходящий год. Если эти темпы развития останутся прежними, в следующие 12 лет ИИ привлечет в мировую экономику $13 трлн, считают аналитики McKinsey.

Некоторые из наиболее впечатляющих шагов ИИ совершил благодаря глубоким нейронным сетям (DNN), разновидности архитектуры машинного обучения, основанной на представлениях данных. Однако, по мнению Демиса Хассабиса, сооснователя DeepMind, DNN не станет предвестником сильного искусственного интеллекта, действительно способного решать проблемы, доступные пока только человеку.

«Работы впереди еще много, — заявил он на конференции NeurlPS 2018 в Монреале. — Видео- или настольные игры — довольно простая задача в определенном смысле, потому что модель перехода между состояниями очень хорошо определенная и простая для обучения. Реальная трехмерная среда и сам реальный мир гораздо сложнее просчитать, но это важно сделать, если вы хотите получить прогноз».

Это интересно:  Из-за аварии на производстве поставки Redmi Note 7 отложены на неделю

Несмотря на все достижения DeepMind, Хассабис не считает, что до сильного ИИ рукой подать.

В отличие от современных алгоритмов, люди обладают присущим им знанием о мире, позволяющим строить прогнозы и планировать действия. Машинам, побеждающим людей в шахматы или го, пока до нас далеко, потому что они еще не научились переносить знания с одной области на другую.

Джеффри Хинтон, которого называют одним из отцов технологии глубокого обучения, лежащей в основе искусственного интеллекта, рассказал в интервью VentureBeat, что годы исследований убедили его — решение проблемы расширяемости обучения с подкреплением заключается в усилении сигнала при помощи иерархической архитектуры.

Если сравнить ИИ с крупной компанией, то обучение с подкреплением будет задачей, поставленной директором перед сотрудниками — повысить доходность. Но такой сигнал поступает к ним не слишком часто, поэтому лучше, если директор назначит себе заместителей, которые будут распределять более мелкие цели, выполнение которых также будет вознаграждаться.

Это интересно:  НБУ анонсировал платежи по QR-кодам

И Хинтон, и Хассабис считают, что ИИ-алгоритмы будущего будут больше похожи на биологические системы. И видят потенциал в неконтролируемом обучении — области машинного обучения, которая получает информацию из немаркированных и неклассифицированных данных.

«Мы в DeepMind разрабатываем нечто вроде нейробиологической стратегии с когнитивными способностями, которые, как мы считаем, необходимы для создания полностью функционального ИИ уровня человека, — говорит Хассабис, — способного передавать опыт, концептуальные знания, может, способного к какому-то творчеству, прогнозированию будущего, умеющего пользоваться языком и символическим мышлением. Все эти вещи у людей получаются без особого труда».

Что касается темы предвзятости ИИ, то Хинтон не считает ее такой уж серьезной проблемой — надо только следить за данными, которые «потребляет» машина. С людьми провернуть этот фокус не получится — нельзя просто взять и изменить их настройки.

Источник: hightech.plus


Загрузка...


загрузка...



Загрузка...


Загрузка...



загрузка...


Загрузка...

Загрузка...

Загрузка...

© 2019, НОВОСТИ Ю
(Служба поддержки) E-mail: admin@newsyou.info

При копировании материалов со страниц сайта для интернет-изданий – обязательна прямая, открытая для поисковых систем гиперссылка. Ссылка должна быть размещена в независимости от полного либо частичного использования материалов. Администрация Сайта Newsyou.info (Главный редактор, редакторы, авторы материалов) прикладывает все усилия, чтобы обеспечить пользователей точной и достоверной информацией, но в то же время не исключает возможности возникновения ошибок. Некоторые ссылки на этом Сайте ведут к ресурсам, расположенным на сторонних сайтах. Данные ссылки размещены для удобства пользователей и не означают, что Администрация Сайта одобряет содержание других сайтов. Кроме этого, Администрация Сайта не несет никакой ответственности за доступность этих ресурсов и за их контент. Это заявление относится ко всем ссылкам, представленным на Сайте, и материалам всех веб-сайтов, доступных через баннеры и ссылки. За рекламу, размещаемую на Сайте, несет ответственность лишь рекламодатель. Администрация сайта не несет ответственности за содержание и достоверность рекламных материалов размещенных на нашем сайте, а так же возможный вред от их использования.