Diskussion zum Artikel "Neuronale Netze leicht gemacht (Teil 37): Sparse Attention (Verringerte Aufmerksamkeit)"
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Freie Forex-VPS für 24 Stunden
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Neuer Artikel Neuronale Netze leicht gemacht (Teil 37): Sparse Attention (Verringerte Aufmerksamkeit) :
Im vorigen Artikel haben wir relationale Modelle erörtert, die in ihrer Architektur Aufmerksamkeitsmechanismen verwenden. Eines der besonderen Merkmale dieser Modelle ist die intensive Nutzung von Computerressourcen. In diesem Artikel wird einer der Mechanismen zur Verringerung der Anzahl von Rechenoperationen innerhalb des Self-Attention-Blocks betrachtet. Dadurch wird die allgemeine Leistung des Modells erhöht.
Wir haben das Modell trainiert und den EA mit historischen EURUSD H1-Daten für März 2023 getestet. Während des Lernprozesses zeigte der EA während der Testphase Gewinne. Der Gewinn wurde jedoch erzielt, weil der Umfang der durchschnittlichen Ergebnisse der Positionen mit Gewinn größer war als der mit Verlust. Die Anzahl der Gewinner und Verlierer war jedoch ungefähr gleich. Infolgedessen lag der Gewinnfaktor (profit factor) bei 1,12 und der Erholungsfaktor (recovery factor) bei 1,01.
Autor: Dmitriy Gizlyk