Главная / Новости / Инженеры MIT разработали мощный процессор для искусственного интеллекта

Инженеры MIT разработали мощный процессор для искусственного интеллекта

04 фев’ 2016 | 22:02



Не за горами тот день, когда восставшие против человечества машины отправят в прошлое киборга-убийцу, ведь команда специалистов из Массачусетского технологического института разработала процессор, который значительно ускоряет процесс обработки данных и распознавания образов нейронными сетями. Их разработка в относительно недалёком будущем может наделить носимую электронику способностью мыслить и принимать решения.


Процессор под кодовым названием Eyeriss был представлен на международной конференции производителей микроэлектроники в Сан-Франциско. Eyeriss изначально разрабатывался для облегчения процесса глубокого обучения. Создатели процессора утверждают, что их чип способен десятикратно превосходить в скорости обработки данных некоторые современные GPU. Другими словами, подобную технологию уже совсем скоро можно будет адаптировать и под портативные устройства вроде планшетов и смартфонов.

«Применение процесса глубокого обучения очень важно в самых разных сферах. Этот набор алгоритмов позволяет осуществлять распознавание объектов, речи, человеческих лиц. Сегодняшние нейронные сети очень комплексны и способны работать исключительно на мощных GPU. Только представьте себе, что вы сможете заполучить всю эту функциональность на свой смартфон», — рассуждает доцент электротехники в MIT Вивьен Зе.

Впечатляющее увеличение скорости обработки данных было достигнуто за счёт очень хитрой конструкции процессора. Во-первых, вместо того чтобы использовать общий пул памяти, каждое из 168 ядер Eyeriss обладает своим собственным дискретным кешем. Это позволило избавиться от излишней передачи данных внутри системы. Во-вторых, чтобы сократить скорость времени передачи данных, процессор сначала сжимает информацию при помощи определённого контура, а затем распаковывает её в месте назначения.

Но что самое важное, процессор Eyeriss использует особую хитроумную схему, благодаря которой процесс обработки данных может быть сконфигурирован так, чтобы данные между ядрами распределялись наиболее эффективным способом. Равномерно распределяя нагрузку, процессор за единицу времени обрабатывает куда большее количество данных, нежели некоторые современные GPU. Правда, пока ничего о конкретном применении нового чипа на конференции сказано не было. Остаётся лишь терпеливо ждать новой информации.

http://hi-news.ru/

Посмотреть все новости

Комментарии:

Нет комментариев

Оставлять комментарии могут только зарегистрированные пользователи.
Зарегистрируйтесь и авторизуйтесь на сайте.