ОНИТМикроэлектроника Russian Microelectronics

  • ISSN (Print) 0544-1269
  • ISSN (Online) 3034-5480

Аппаратная реализация асинхронной аналоговой нейронной сети с обучением на базе унифицированных КМОП IP-блоков

Код статьи
S30345480S0544126925040066-1
DOI
10.7868/S3034548025040066
Тип публикации
Статья
Статус публикации
Опубликовано
Авторы
Том/ Выпуск
Том 54 / Номер выпуска 4
Страницы
323-332
Аннотация
Представлен подход к проектированию нейроморфных электронных устройств на базе сверточных нейронных сетей с обучением методом обратного распространения ошибки, направленный на повышение энергоэффективности и производительности автономных систем. В основе разработанного подхода лежит использование компилятора топологии нейронных сетей на базе пяти базовых КМОП-блоков, предназначенных для аналоговой реализации всех вычислительных операций в режимах обучения и инференса. Разработанные кроссбар-массивы функциональных аналоговых КМОП-блоков с цифровым управлением уровнем проводимости обеспечивают выполнение операции матрично-векторного умножения в сверточном и полносвязном слоях без использования ЦАП и с применением АЦП в цепях управления весами синаптических связей только в режиме обучения. Эффективность подхода демонстрируется на примере задачи классификации цифр, решаемой с точностью 97.87% на тестовых данных с использованием разработанной модели аппаратной реализации асинхронной аналоговой нейронной сети с обучением.
Ключевые слова
нейроморфное электронное устройство асинхронная аналоговая сверточная нейронная сеть с режимом обучения компилятор топологии функциональные КМОП-блоки
Дата публикации
15.05.2025
Год выхода
2025
Всего подписок
0
Всего просмотров
56

Библиография

  1. 1. He K., Zhang X., Ren S., Sun J. Deep residual learning for image recognition // IEEE Conference on Computer Vision and Pattern Recognition (CVPR). 2016. P. 770–778.
  2. 2. Zagoruyko S., Komodakis N. Wide residual networks // arXiv:1605.07146. 2016. P. 1–15.
  3. 3. Voulodimos A., Doulamis N., Doulamis A., Protopapadakis E. Deep learning for computer vision: A brief review // Computational intelligence and neuroscience. 2018. V. 2018. N. 1. 7068349.
  4. 4. Goyal P., Sumit P., Karan J. Deep learning for natural language processing. Apress Berkeley, CA. 2018. 277 p.
  5. 5. Petrov M.O., Ryndin E.A., Andreeva N.V. Compiler for Hardware Design of Convolutional Neural Networks with Supervised Learning Based on Neuromorphic Electronic Blocks // 2024 Sixth International Conference Neurotechnologies and Neurointerfaces (CNN). 2024. P. 1–4.
  6. 6. Petrov M.O., Ryndin E.A., Andreeva N.V. Automated design of deep neural networks with in-situ training architecture based on analog functional blocks // The European Physical Journal Special Topics. 2024. P. 1–14.
  7. 7. Gupta I., Serb A., Khiat A., Zeitler R., Vassanelli S., Prodromakis T. Sub 100 nW volatile nano-metal-oxide memristor as synaptic-like encoder of neuronal spikes // IEEE transactions on biomedical circuits and systems. 2018. V. 12. N. 2. P. 351–359.
  8. 8. Valueva M.V., Valuev G.V., Babenko M.G., Chernyx A., Kortes-Mendosa X.M. Metod apparatnoj realizacii svertochnoj nejronnoj seti na osnove sistemy` ostatocny`x klassov // Trudy` Instituta sistemnogo programmirovaniya RAN. 2022. T. 34. № 3. S. 61–74.
  9. 9. LeCun Y., Bengio Y., Hinton G. Deep learning // Nature. 2015. V. 521. N. 7553. P. 436–444.
  10. 10. Goodfellow I., Bengio Y., Courville A. Regularization for deep learning // Deep learning. 2016. P. 216–261.
  11. 11. Schmidhuber J. Deep learning in neural networks: An overview // Neural networks. 2015. V. 61. P. 85–117.
  12. 12. TensorFlow. MNIST dataset in Keras. 2024. URL: https://www.tensorflow.org/api_docs/python/tf/keras/datasets/mnist
QR
Перевести

Индексирование

Scopus

Scopus

Scopus

Crossref

Scopus

Высшая аттестационная комиссия

При Министерстве образования и науки Российской Федерации

Scopus

Научная электронная библиотека