Репозиторий Dspace

Special aspects of matrix operation implementations for low-precision neural network model on the Elbrus platform

Показать сокращенную информацию

dc.contributor.author Limonova, E.E.
dc.contributor.author Neiman-zade, M.I.
dc.contributor.author Arlazarov, V.L.
dc.contributor.author Лимонова, Е.Е.
dc.contributor.author Нейман-заде, М.И.
dc.contributor.author Арлазаров, В.Л.
dc.date.accessioned 2022-05-05T10:55:56Z
dc.date.available 2022-05-05T10:55:56Z
dc.date.issued 2020
dc.identifier.citation Limonova, E.E. Special aspects of matrix operation implementations for low-precision neural network model on the Elbrus platform / E.E. Limonova, M.I. Neiman-zade, V.L. Arlazarov // Вестник ЮУрГУ. Серия «Математическое моделирование и программирование». - 2020. - Т. 13, № 1. - С. 118-128. DOI: 10.14529/mmp200109 ru_RU
dc.identifier.issn 2308-0256
dc.identifier.uri http://dspace.susu.ru/xmlui/handle/0001.74/44362
dc.description E.E. Limonova1,2, M.I. Neiman-zade3, V.L. Arlazarov1 1Federal Research Center “Computer Science and Control” of the Russian Academy of Sciences, Moscow, Russian Federation 2Smart Engines Service LLC, Moscow, Russian Federation 3JSC “MCST” , Moscow, Russian Federation E-mails: elena.e.limonova@gmail.com, muradnz@mcst.ru, vladimir.arlazarov@gmail.com. Елена Евгеньевна Лимонова, магистр, Федеральный исследовательский центр ≪Информатика и управление≫ РАН, Институт системного анализа (г. Москва, Российская Федерация); ООО ≪Смарт Энджинс Сервис≫ (г. Москва, Российская Федерация), elena.e.limonova@gmail.com. Мурад Искендер-оглы Нейман-заде, кандидат физико-математических наук, начальник отделения систем программирования, АО МЦСТ (г. Москва, Российская Федерация), muradnz@mcst.ru. Владимир Львович Арлазаров, доктор технических наук, профессор, член- корреспондент РАН, Федеральный исследовательский центр ≪Информатика и управление≫ РАН (г. Москва, Российская Федерация), vladimir.arlazarov@gmail.com. ru_RU
dc.description.abstract В работе исследуется возможность эффективной реализации вычислений в малобитных нейросетевых моделях на платформе с VLIW архитектурой Эльбрус. Такие модели широко применяются на практике для повышения вычислительной эффективности распознавания и хорошо подходят для вычислителей таких архитектур, как x86 и ARM. В данной работе была рассмотрена 8-битная нейросетевых модель, в которой наиболее ресурсоемкой частью реализации является матричное умножение. В данной работе приведена эффективная реализация матричного умножения, учитывающая особенности архитектуры Эльбрус: наличие нескольких вычислительных каналов с различными арифметико-логическими устройствами, буфера предварительной подкачки массивов и собственного SIMD-расширения. Проведено теоретическое и экспериментальное сравнение вычислительной производительности малобитной и классической нейросетевых моделей, показавшее, что процессоры Эльбрус имеют гораздо больше возможностей для выполнения оптимальных вещественных вычислений и требуют разработки новых подходов к повышению вычислительной эффективности нейросетевых моделей. This paper investigates the possibility of effective implementation of calculations in lowprecision neural network models on the Elbrus platform with the VLIW architecture. Such models are widely used in practice to increase the computational efficiency of recognition and well suit computers with the x86 and ARM architectures. In this paper, we consider an 8-bit neural network model, in which matrix multiplication is the most resource-intensive part of the implementation. This paper presents an effective implementation of matrix multiplication that takes into account the features of the Elbrus architecture: the presence of several computational channels with various arithmetic and logic devices, an array prefetch buffer, and its own SIMD extension.We carry out theoretical and experimental comparisons of the computational efficiency of low-precision and classical neural network models, which show that Elbrus processors have much more capabilities for performing fast floating point calculations and require the development of new approaches to increase the computational efficiency of neural network models. ru_RU
dc.language.iso en ru_RU
dc.publisher Издательский центр ЮУрГУ ru_RU
dc.relation.isformatof Вестник ЮУрГУ. Серия Математическое моделирование и программирование ru_RU
dc.relation.isformatof Vestnik Yuzhno-Ural'skogo Gosudarstvennogo Universiteta. Seriya Matematicheskoe modelirovanie i programmirovanie ru_RU
dc.relation.isformatof Bulletin of SUSU. Ser. Mathematical Modelling, Programming & Computer Software ru_RU
dc.relation.ispartofseries Математическое моделирование и программирование;Том 13
dc.subject УДК 004.93 ru_RU
dc.subject малобитные нейронные сети ru_RU
dc.subject вычислительная эффективность ru_RU
dc.subject архитектура Эльбрус ru_RU
dc.subject матричные операции ru_RU
dc.subject low-precision neural networks ru_RU
dc.subject computational efficiency ru_RU
dc.subject Elbrus architecture ru_RU
dc.subject matrix operations ru_RU
dc.title Special aspects of matrix operation implementations for low-precision neural network model on the Elbrus platform ru_RU
dc.title.alternative Особенности реализации матричных операций в малобитных нейросетевых моделях на платформе Эльбрус ru_RU
dc.type Article ru_RU
dc.identifier.doi DOI: 10.14529/mmp200109


Файлы в этом документе

Данный элемент включен в следующие коллекции

Показать сокращенную информацию

Поиск в DSpace


Расширенный поиск

Просмотр

Моя учетная запись