DP: Полегшена бібліотека для навчання діфференційному програмуванню

Автор(и)

  • Крістіан Херста HTW Берлін – Університет прикладних наук, Вільгельменхофштр, 75а, Берлін, Німеччина,12459 https://orcid.org/0000-0003-2519-6794
  • Клаус Штоменгер HTW Берлін – Університет прикладних наук, Вільгельменхофштр, 75а, Берлін, Німеччина,12459 https://orcid.org/0000-0002-4534-1306
  • Олівер Фішер HTW Берлін – Університет прикладних наук, Вільгельменхофштр, 75а, Берлін, Німеччина,12459 https://orcid.org/0000-0002-1871-9350
  • Діварі Октай HTW Берлін – Університет прикладних наук, Вільгельменхофштр, 75а, Берлін, Німеччина,12459 https://orcid.org/0000-0003-1483-5837

DOI:

https://doi.org/10.15276/aait.04.2019.3

Ключові слова:

диференційоване програмування, глибоке навчання, навчання, автоматичне диференціювання

Анотація

Технології глибокого навчання викликають великий інтерес, так як в даний час на ньому базується
велика кількість прикладних додатків. Як правило, ці програми реалізуються за допомогою спеціальних бібліотек
глибокого навчання, внутрішню реалізацію яких важко зрозуміти. Ми розробили таку бібліотеку в полегшеному вигляді
з упором на викладання відповідних дисциплін. Наша бібліотека має наступні характеристики, які відповідають певним
вимогам з урахуванням специфіки навчального процесу: невелика кодова база, прості концепції і стабільний інтерфейс
прикладного програмування (API). Основне призначення бібліотеки - допомога у володінні принципами роботи з
бібліотеками глибокого навчання. Бібліотека розділена на два шари. Низькорівнева частина дозволяє програмно
побудувати обчислювальний графік на основі елементарних операцій. У машинному навчанні обчислювальний графік
зазвичай є функцією вартості, що включає в себе модель машинного навчання, наприклад, нейронну мережу.
Вбудований зворотний режим автоматичного диференціювання на обчислювальному графіку дозволяє навчати моделі
машинного навчання. Це робиться за допомогою алгоритмів оптимізації, таких як стохастичний градієнтний спуск. Ці
алгоритми використовують похідні, щоб мінімізувати вартість шляхом адаптації параметрів моделі. У разі нейронних
мереж параметри є вагами нейронних мереж. Частина бібліотеки вищого рівня полегшує реалізацію нейронних мереж,
надаючи більші будівельні блоки, такі як нейронні шари і допоміжні функції, наприклад, реалізацію алгоритмів
оптимізації (оптимізаторів) для навчання нейронних мереж. Також до бібліотеки ми додаємо вправи для вивчення
основних принципів роботи бібліотеки глибокого навчання і основ нейронних мереж. Додатковою перевагою бібліотеки
є те, що вправи і відповідні програмні завдання на її основі не потребують постійного рефакторінгу через її
стабільного API

Завантаження

Дані завантаження ще не доступні.

Біографії авторів

Крістіан Херста, HTW Берлін – Університет прикладних наук, Вільгельменхофштр, 75а, Берлін, Німеччина,12459

доктор природних наук, професор факультету 4 – Комп'ютерні науки

Клаус Штоменгер, HTW Берлін – Університет прикладних наук, Вільгельменхофштр, 75а, Берлін, Німеччина,12459

магістр наук, науковий співробітник факультету 4 – Комп'ютерні науки

Олівер Фішер, HTW Берлін – Університет прикладних наук, Вільгельменхофштр, 75а, Берлін, Німеччина,12459

магістр наук, науковий співробітник факультету 4 – Комп'ютерні науки

Діварі Октай, HTW Берлін – Університет прикладних наук, Вільгельменхофштр, 75а, Берлін, Німеччина,12459

студент факультету 4 – Комп'ютерні науки

Опубліковано

2019-12-24

Як цитувати

[1]
Herta C., Strohmenger K., Fischer O.., Oktay D. “DP: A lightweight library for teaching differentiable programming ”. Applied Aspects of Information Technology. 2019; Vol. 2, No. 4: 283-294. DOI:https://doi.org/10.15276/aait.04.2019.3.