DISCRETE PERCEPTRON BASED ON PROBABILISTIC ESTIMATES OF SHIFTED SYNAPTIC SIGNALS

Guardado en:
Detalles Bibliográficos
Publicado en:Natsional'nyi Hirnychyi Universytet. Naukovyi Visnyk no. 2 (2025), p. 189
Autor principal: Yakovyn, S V
Otros Autores: Melnychuk, S I
Publicado:
State Higher Educational Institution "National Mining University"
Materias:
Acceso en línea:Citation/Abstract
Full Text
Full Text - PDF
Etiquetas: Agregar Etiqueta
Sin Etiquetas, Sea el primero en etiquetar este registro!

MARC

LEADER 00000nab a2200000uu 4500
001 3202176501
003 UK-CbPIL
022 |a 2071-2227 
022 |a 2223-2362 
024 7 |a 10.33271/nvngu/2025-2/189  |2 doi 
035 |a 3202176501 
045 2 |b d20250301  |b d20250430 
084 |a 185328  |2 nlm 
100 1 |a Yakovyn, S V 
245 1 |a DISCRETE PERCEPTRON BASED ON PROBABILISTIC ESTIMATES OF SHIFTED SYNAPTIC SIGNALS 
260 |b State Higher Educational Institution "National Mining University"  |c 2025 
513 |a Journal Article 
520 3 |a Purpose. Improvement of existing methods and development of new approaches for the digital processing of discrete signals in the field of artificial neural networks, as well as the formulation of principles for the structural implementation of discrete perceptrons. Methodology. The presented scientific results and conclusions were obtained using methods of statistical analysis and digital signal processing, probability theory and mathematical statistics, signal and system theory, as well as through computational experiments and modeling. Findings. The research showed the potential and prospects of using the proposed perceptron structure, which processes synaptic signals based on statistical estimation of their discrete states. The signal shifting is implemented through addition of weight coefficients, which allows avoiding multiplication operations and, as a result, reduces algorithmic and computational complexity. Furthermore, using a discrete basis allows accelerating the training process by reducing the possible range of signal values. Originality. A method for implementing a discrete perceptron that is based on the use of statistical evaluations and integer operations on discrete synaptic signals has been proposed for the first time. Practical value. The proposed approach allows avoiding the typical multiplication operation for perceptron structures, reducing computational costs. The use of a discrete basis significantly limits the value space of shiftcoefficients which could potentially shorten the training process. An important aspect of the results obtained is the prospects for implementing specialised artificial neural networks on platforms with limited computing resources, such as microcontrollers, programmable logic integrated circuits, and others. Mera. Удосконалення 1снуючих Ta розробка HoBUX метод1в цифрового опрацювання дискретних сигнал1в у сфер! штучних нейронних мереж, a Taкож формування принципв структурно! реал1заци дискретних MEPUENTPOHIB. Методика. Подан!1 HayKoBi результати À BUCHOBKH отриман! завдяки використанню METOLIB CTaтистичного аналзу та цифрового опрацювання сигнал1в, Teopii ймов1рностей 1 MaTeMaTHYHOÏ статистики, Teopii CUTHAJIIB 1 систем, а також шляхом проведення моделювання в обчислювальних експериментах. Результати. Y ход1 проведених досллджень показан! MOXJIMBOCTI та перспективи використання за- пропоновано! перцептронно! структури, що peai3y€ опрацювання сигнал1в CUHANCIB на основ! статистичного ощшнювання IX дискретних CTaHiB. Причому змищення CUTHAJIB синапс1в реал1зуеться шляXOM додавання вагових коефищент в, що, у свою Yepry, дозволило вдмовитись Bid операции множення 1, як HAC TOK, знизити алгоритмичну та обчислювальну складытсть. KpiM того, використання дискретного базису дозволяе прискорити процес навчання таких перцептронних структур за рахунок зменшення простору можливих значень сигналв. Наукова новизна. Уперше запропоновано метод реалзаци дискретного перцептрона, що грунтуеться на використанн! статистичного ошнювання Ta шлочисельних операщй над дискретними синаптичними сигналами. Практична значим!сть. Запропонований шдхд дозволяе BiIMOBHTHCb BİN THIMOBOÏ для перцептронних структур операци множення, що приводить до зменшення обчислювальних затрат. Використання дискретного базису суттево обмежуе прост! можливих значень коефициентв змищення, що може дозволити скоротити процес навчання. Важливим аспектом отриманих результат!в E перспективи peал1заци спещалтзованих штучних нейронних мереж на платформах з обмеженими обчислювальними ресурсами, таких як мкроконтролери, програмован! логчн1 1нтегральн! схеми тощо. 
653 |a Statistics 
653 |a Mathematics 
653 |a Software 
653 |a Artificial neural networks 
653 |a Signal processing 
653 |a Computer applications 
653 |a Training 
653 |a Statistical analysis 
653 |a Statistical methods 
653 |a Entropy 
653 |a System theory 
653 |a Integrated circuits 
653 |a Digital signal processing 
653 |a Systems theory 
653 |a Neural networks 
653 |a Computing costs 
653 |a Multiplication 
653 |a Probability theory 
653 |a Algorithms 
653 |a Economic 
700 1 |a Melnychuk, S I 
773 0 |t Natsional'nyi Hirnychyi Universytet. Naukovyi Visnyk  |g no. 2 (2025), p. 189 
786 0 |d ProQuest  |t Materials Science Database 
856 4 1 |3 Citation/Abstract  |u https://www.proquest.com/docview/3202176501/abstract/embedded/6A8EOT78XXH2IG52?source=fedsrch 
856 4 0 |3 Full Text  |u https://www.proquest.com/docview/3202176501/fulltext/embedded/6A8EOT78XXH2IG52?source=fedsrch 
856 4 0 |3 Full Text - PDF  |u https://www.proquest.com/docview/3202176501/fulltextPDF/embedded/6A8EOT78XXH2IG52?source=fedsrch