- Код статьи
- S30345480S0544126925040066-1
- DOI
- 10.7868/S3034548025040066
- Тип публикации
- Статья
- Статус публикации
- Опубликовано
- Авторы
- Том/ Выпуск
- Том 54 / Номер выпуска 4
- Страницы
- 323-332
- Аннотация
- Представлен подход к проектированию нейроморфных электронных устройств на базе сверточных нейронных сетей с обучением методом обратного распространения ошибки, направленный на повышение энергоэффективности и производительности автономных систем. В основе разработанного подхода лежит использование компилятора топологии нейронных сетей на базе пяти базовых КМОП-блоков, предназначенных для аналоговой реализации всех вычислительных операций в режимах обучения и инференса. Разработанные кроссбар-массивы функциональных аналоговых КМОП-блоков с цифровым управлением уровнем проводимости обеспечивают выполнение операции матрично-векторного умножения в сверточном и полносвязном слоях без использования ЦАП и с применением АЦП в цепях управления весами синаптических связей только в режиме обучения. Эффективность подхода демонстрируется на примере задачи классификации цифр, решаемой с точностью 97.87% на тестовых данных с использованием разработанной модели аппаратной реализации асинхронной аналоговой нейронной сети с обучением.
- Ключевые слова
- нейроморфное электронное устройство асинхронная аналоговая сверточная нейронная сеть с режимом обучения компилятор топологии функциональные КМОП-блоки
- Дата публикации
- 15.05.2025
- Год выхода
- 2025
- Всего подписок
- 0
- Всего просмотров
- 60
Библиография
- 1. He K., Zhang X., Ren S., Sun J. Deep residual learning for image recognition // IEEE Conference on Computer Vision and Pattern Recognition (CVPR). 2016. P. 770–778.
- 2. Zagoruyko S., Komodakis N. Wide residual networks // arXiv:1605.07146. 2016. P. 1–15.
- 3. Voulodimos A., Doulamis N., Doulamis A., Protopapadakis E. Deep learning for computer vision: A brief review // Computational intelligence and neuroscience. 2018. V. 2018. N. 1. 7068349.
- 4. Goyal P., Sumit P., Karan J. Deep learning for natural language processing. Apress Berkeley, CA. 2018. 277 p.
- 5. Petrov M.O., Ryndin E.A., Andreeva N.V. Compiler for Hardware Design of Convolutional Neural Networks with Supervised Learning Based on Neuromorphic Electronic Blocks // 2024 Sixth International Conference Neurotechnologies and Neurointerfaces (CNN). 2024. P. 1–4.
- 6. Petrov M.O., Ryndin E.A., Andreeva N.V. Automated design of deep neural networks with in-situ training architecture based on analog functional blocks // The European Physical Journal Special Topics. 2024. P. 1–14.
- 7. Gupta I., Serb A., Khiat A., Zeitler R., Vassanelli S., Prodromakis T. Sub 100 nW volatile nano-metal-oxide memristor as synaptic-like encoder of neuronal spikes // IEEE transactions on biomedical circuits and systems. 2018. V. 12. N. 2. P. 351–359.
- 8. Valueva M.V., Valuev G.V., Babenko M.G., Chernyx A., Kortes-Mendosa X.M. Metod apparatnoj realizacii svertochnoj nejronnoj seti na osnove sistemy` ostatocny`x klassov // Trudy` Instituta sistemnogo programmirovaniya RAN. 2022. T. 34. № 3. S. 61–74.
- 9. LeCun Y., Bengio Y., Hinton G. Deep learning // Nature. 2015. V. 521. N. 7553. P. 436–444.
- 10. Goodfellow I., Bengio Y., Courville A. Regularization for deep learning // Deep learning. 2016. P. 216–261.
- 11. Schmidhuber J. Deep learning in neural networks: An overview // Neural networks. 2015. V. 61. P. 85–117.
- 12. TensorFlow. MNIST dataset in Keras. 2024. URL: https://www.tensorflow.org/api_docs/python/tf/keras/datasets/mnist