Інтернет-конференції НУБіП України, ТЕОРЕТИЧНІ ТА ПРИКЛАДНІ АСПЕКТИ РОЗРОБКИ КОМП’ЮТЕРНИХ СИСТЕМ '2024

Розмір шрифту: 
ДОСЛІДЖЕННЯ ПАРАЛЕЛЬНИХ СИСТЕМ З МЕТОЮ ОПТИМІЗАЦІЇ ПРОГРАМ ТА МЕТОДИ ПАРАЛЕЛІЗМУ ГЛИБОКОГО НАВЧАННЯ В KERAS
Олексій Кондус

Остання редакція: 16-04-2024

Тези доповіді


Широке впровадження комп’ютерних технологій в усі види діяльності, постійне нарощування їх обчислювальної потужності, використання комп’ютерних мереж різного масштабу вимагає використання значного обсягу високопродуктивних паралельних обчислень, що в свою чергу призводить до дефіциту обчислювальних ресурсів при виконанні різноманітних обчислювальних процесів.

Одним із основних способів прискорення процесу обчислень на сьогодні є використання обчислювальної техніки, що реалізує засоби паралельної обробки даних [1]. Основна мета паралельних обчислень – зменшення часу розв'язання задачі.  Паралельні обчислення не тільки скорочують час розрахунків, а й забезпечують можливість вирішення складних і трудомісних завдань [2].

У роботі було проаналізовано різницю між послідовними та паралельними обчисленням, проаналізовано можливі варіанти досягнення паралельного навчання в нейронній мережі, тому що питання паралельних обчислень актуальне і у сфері штучного інтелекту. За останні роки методи штучного інтелекту(ШІ) та глибокого навчання (DL) значно розвинулися. Кількість компаній, які використовують цю технологію зростає щороку, тому що DL можна застосовувати для різних завдань у багатьох сферах. Однак, незважаючи на швидкий розвиток сфери штучного інтелекту і деякі технологічні досягнення за останні кілька років, глибоке навчання все ще вважається дуже дорогою функцією ШІ як у часі, так і з точки зору обчислень.

Тим не менш, існує декілька способів і підходів, щоб прискорити процес навчання глибокого навчання та зробити його більш ефективним. Одним із таких способів є паралелізація глибокого навчання [3].

Саме питання паралелізація DL розглядалось у роботі. Було проведено дослідження прискорення навчання нейронної мережі в залежності від кількості працівників на прикладі перцептрона для розпізнавання рукописних цифр, який розв’язує задачу класифікації. Докладніше питання розподіленого навчання з Keras і Apache Spark висвітлено в [4].

При 4 працівниках прискорення найбільше. Можна зробити висновок, що при більшій кількості працівників при будь-якому режимі обчислень отримуємо кращий час навчання нейронної мережі при невеликій різниці правильних відповідей на тестовій вибірці.