Schnellere Optimierer

Das Trainieren eines sehr großen Deep-Learning-Netzes kann nervtötend langsam sein. Wir haben bisher vier Möglichkeiten betrachtet, um das Trainieren zu beschleunigen (und die Lösung zu verbessern): eine geeignete Initialisierungsstrategie für die Gewichte der Verbindungen zu nutzen, die Aktivierungsfunktion sinnvoll zu wählen, Batchnormalisierung zu verwenden und Teile eines vortrainierten Netzes einzusetzen (eventuell gebaut für eine künstliche Aufgabe oder per unüberwachtes Lernen). Eine weitere deutliche Beschleunigung lässt sich durch Verwenden eines schnelleren Optimierers anstelle des gewöhnlichen Gradientenverfahrens erzielen. In diesem Abschnitt stellen wir die verbreitetsten Verfahren vor: Momentum Optimization, ...

Get Praxiseinstieg Machine Learning mit Scikit-Learn, Keras und TensorFlow, 2nd Edition now with the O’Reilly learning platform.

O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.