Friday 3 November 2017

Neuronale Netzwerke Forex Trading


Neuronales Netz Neuronales Netz er eines der neueren Schlagworten im Handel. Det er veldig kul og anspruchsvolle. Nicht zu viele Leute scheinen zu verstehen, var alles ber neuronale Netze sind. Neuronen in der realen Welt Unsere Gehirne sind phnomenal kompliziert. Var fr de meisten berraschend, jedoch, ist, dass das Gehirn mehr oder weniger eine riesige Kiste Schaltungen. Neuronen sind Zellen, die wie Schaltungen mit quotelektrischen Leitungenquot, genant Axone, der Auslaufen und ber menschlichen Krper verbinden. Jede Bewegung, Wahrnehmung oder Aktion, die Sie tun, er Die Summe der die Axone, die Elektrische Impulse auslsen. nderung tritt auf, wenn die Frequenz des Elektischen Impuls von Neuronen gesendet variiert. Weitere Impulse zu einer Reaktion fhren. eine Verringerung der bewirkt, dass eine ander. Neuronale Netze Versucht, dø Prozesse des menschlichen Gehirns zu emulieren, innem Organisasjon von Informationen i den Neuronen. Im Gegensatz zu tatschlichen Neuron Zellen, eine Neuron Netzwerk eksisterte nur in der Maschine. Es ist ein Maschinengewicht, die enthlt Informationen darber, var unter Studie. Ein neuronales Netz fr ein Handelssystem mchten gemeinsame Indikatorer wie ein gleitender Durchschnitt studier, der RSI und Stochastik Oszillator. Der gjenspeiler Durchschnittswert fra den aktuelle Bar zhlt som egen neuron. Dør RSI er annerledes, så det er en forskjell mellom Neuron signal. Wenn ich zehn Indikatorer i meginem Werkzeugkasten haben, dann habe ich 10 Neuronen in meinem Netzwerk. Computer lsen tradisjonell lineær, einfache Probleme. Wenn Sie das Ergebnis der mathematischen Operationen wie die Kubikwurzel wissen wollen 355, Computer sind ideal fr die Aufgabe. Berechnen sie schnell eine przise Antwort. Wie im menschlichen Gehirn, Neuronale Netze Form Synapsen mit anderen Nervenzellen. Wenn geschult, Gruppen von Nervenzellen knnen lernen, Muster zu erkennen. Es ist diese Eigenschaft, die neuronale Netze so ntzlich macht. Dies ermglicht es uns, Program zu erstellen, mit mit traditional computing unmglich wre. Erstel eines Softwareprogrammes, ein Gesicht zu erkennen, zum Beispiel, extrem schwierig wre. Det er bare et nettverk, en Netzwerk, en Gesicht zu erkennen, da det alltid blir nettopp som Netzwerk-Gesichter zu trainieren. Das Gehirn ist ein faszinierendes Thema aus eigenem Recht. Nebenbei bemerkt, Meine Frau und ich nehmen einen Umfrage-Kurs in der Neurologie er en video-serie The Great Kurse. Wenn Sie Interesse en allen i den Gegenstand haben, Ich empfehle Verstehen des Gehirns von Jeanette Norden. Es umfasst im Detail wie Neuronen Anatomie im gesamten Gehirns und des Gesamten Krpers verbinden. Neuronale Netze og Devisenhandel Neuronale Netze kommer inn Spiel, wenn die Antwort nicht så przise ist. Kleben mit diesem Blog Theme Devisenhandel, er det riktige svaret, var det perfekte systemet for handel. En typisk privat lektor, det beste systemet for den handel er der, som er den mest magiske kraften. En annen ting er det, det beste systemet for handel er der med Sharpe-forholdet. Viele wollen etwas in der Mitte. Das Problem der quotBest trading Systemquot ist mehrdeutig, wodurch es einen idealen Kandidat fra Angriffe mit neuronalen Netzen. Dør Designer-Konturen-Stze von Vorschriften, dø, Laut des Hndlers, bildet er et numerisk metode for messing av beste systemer. Menschliche Gehirn er vert for 100 Milliard Neuronen. Trotz der Bemhungen vieler unserer Kunden, Ich habe no mit mit 100 Milliard Marktindikatoren zur Verfgung. Eine Mglichkeit, forsterker Wirkung von Neuronen i usynlig Verktøykasse, er en av de mest etterspurte Ebenen erstellen. Ein Netwerk bestreftes mehreren Schichten, jeweils mit mehreren Neuronen gebildet. Jedes Neuron ist mit jedem Neuron in der nchsten Ebene verbunden. Jede Verbindung dannet seg selv som engangsvektet Wert. Eine Neuron wird den Wert des Neurons multiplieriert und durch das Gewicht des die ausgehende Verbandung der Wert bergeben. Das Neuron er Ende dø ausgehende Verbindung wird zusammenfassend alle eingehenden Verbindungen und propagieren dieses Ergebnis auf die nchste Ebene durch alle ausgehenden Verbandungen. Bilder machen die Idee weit intuitivere. Abbildung 1 enthlt ein kleines Beispiel. Die 2 und 3 auf der linken Seite sind die Eingnge ins Netz. Diese Eingnge er et høyt nivå på vekten av forbindelsen mellom de to og flere. Die 2 multiplieriert mit dem 0,5 geben uns 1, und 3 von 2 geben uns 6. Die zweite Schicht enthlt einen Node die fasst die Ergebnisse aus der vorherigen Schicht, geben uns 7. Der nchste Schritt zu vermehren 7 durch die Gewichte auf die ausgehenden Verbindungen und bergeben Sie sie auf der nchsten Ebene. Abbildung 1: Ein Beispiel fra ein neuronales Netz, die Weitergabe der Ergebnisse nach vor. Das kurze Beispiel oben knnen wiederholt und i Form eines greren Netzwerks miteinander verketter werden. Unter, i Abbildung 2, har Wir haben ein Beispiel ei greren Netzwerks. Beispielnetzwerk hat 3 Eingaben, die verborgene Ebene verbunden sind. Die verborgene Ebene wird dann zu einem einzigen Ausgang angeschlossen. Ausgeblendeten Ebenen ble Schulungen zu erleichtern. Je komplexer das Problem du mehr Schichten und Knoten erforderlich. Abbildung 2: Ein Beispiel fra ein greres neuronales Netz. Das Netz lernt durch die Gewichte viele Verbindungen aktualier. Es gibt viele Softwarealgorithmen, die verwendet werden, om lernen in neuronalen Netzen zu erreichen. Sie falt i Zwei Kategorien, berwachte und Unberwachtes Lernen. Betreutes lernen geschieht mit dem Benutzer im Netzwerk zu sagen, wenn seine Vorhersagen korrekt sind. Das Netzwerk dannet seg med Fehler und einem der Algorithmen Verwendet, om den Fehler zu beheben. Ein Beispiel hierfr er die umgekehrte Vermehrung, die Fehler der Vorhersage des Netzes berechnet. Das Netzwerk verwendet einen schnellen Algorithmus dannet alle Gewichte Verbindung mit diesem Fehler aktualisier. Umgekehrte Vermehrung ist ein der Hufigeren Training Strategy. Unberwachtes Lernen verwendet irendeine Art von Fitness eller scoring-Algorithmus, i dem Netzwerk wird Ergebnis selbst mit und versuchen, bei jedem nachfolgenden Versuch zu verbessern. Ein Beispiel fr unbeaufsichtigt Trening er den genetiske algoritmusen. Dieser Algorithmus erstatter eine Bevlkerung von neuronalen Netzen und Verwendet ein Bewertungsalgorithmus entwickelt, die von Benutzer zum Rang der Bevlkerung. Danach, Es ist berleben der strksten. Die Top-Rang-Netze er blekket og ble fortalt av produsentene og ikke lenger til Platz. Die Netze reproduserer, innlemmer og tilpasser forbinderen. Neuronale Netze knnen erheblich Systeme Hndler ihre Algorithmentechnik durch erforschen Milliard Kombinasjon unter eine relativ kleine Toolbox Indicators untersttzen. Dies unterscheidet sich vom standard-Optimierung, die Wird Zahlen in verschiedenen Indikatoren, der Suche nach was Kombination gibt das meiste Geld zurck. Die Tatsache, dass Netzwerke knuten mehrere Manahmen zu prfen (Gleichgewicht, Sharpe-Ratio, etc.) om zu bestimmen, die besten Handelssystem verringern hilft die Wahrscheinlichkeit, dass esine bestimmte Manahme overemphasizes. Ein gutes Beispiel dafr ist Kontostand. Wenn ein System das geben und Nehmen zwischen die Nettorendite und dem Risiko angepasst wie zurck, Es beginnt zu Schritt weg von der Zahlenverarbeitung entdecken die besten Zahlen zu nutzen und weiter in Richtung tatschliche Lern - und Muster-Anerkennung. Neuronale Netze er en av de mest ettertraktede i verden. Sie excel wo gibt es Muster, die schwierig fr uns, zu erkennen sind. Diese Fhigkeit macht Netzwerke von unschtzbarem Wert bei der Lsung schwieriger Problem med mehreren Variablen. Hinterlasse eine Antwort Antwort AbbrechenMetaTrader Ekspertrådgiver Neuronales Netz ist eines der neueren Schlagworten im Handel. Det er veldig kul og anspruchsvolle. Nicht zu viele Leute scheinen zu verstehen, var alles ber neuronale Netze sind. Neuronen in der realen Welt Unsere Gehirne sind phnomenal kompliziert. Var fr de meisten berraschend, jedoch, ist, dass das Gehirn mehr oder weniger eine riesige Kiste Schaltungen. Neuronen sind Zellen, die wie Schaltungen mit quotelektrischen Leitungenquot, genant Axone, der Auslaufen und ber menschlichen Krper verbinden. Jede Bewegung, Wahrnehmung oder Aktion, die Sie tun, er Die Summe der die Axone, die Elektrische Impulse auslsen. nderung tritt auf, wenn die Frequenz des Elektischen Impuls von Neuronen gesendet variiert. Weitere Impulse zu einer Reaktion fhren. eine Verringerung der bewirkt, dass eine ander. Neuronale Netze Versucht, dø Prozesse des menschlichen Gehirns zu emulieren, innem Organisasjon von Informationen i den Neuronen. Im Gegensatz zu tatschlichen Neuron Zellen, eine Neuron Netzwerk eksisterte nur in der Maschine. Es ist ein Maschinengewicht, die enthlt Informationen darber, var unter Studie. Ein neuronales Netz fr ein Handelssystem mchten gemeinsame Indikatorer wie ein gleitender Durchschnitt studier, der RSI und Stochastik Oszillator. Der gjenspeiler Durchschnittswert fra den aktuelle Bar zhlt som egen neuron. Dør RSI er annerledes, så det er en forskjell mellom Neuron signal. Wenn ich zehn Indikatorer i meginem Werkzeugkasten haben, dann habe ich 10 Neuronen in meinem Netzwerk. Computer lsen tradisjonell lineær, einfache Probleme. Wenn Sie das Ergebnis der mathematischen Operationen wie die Kubikwurzel wissen wollen 355, Computer sind ideal fr die Aufgabe. Berechnen sie schnell eine przise Antwort. Wie im menschlichen Gehirn, Neuronale Netze Form Synapsen mit anderen Nervenzellen. Wenn geschult, Gruppen von Nervenzellen knnen lernen, Muster zu erkennen. Es ist diese Eigenschaft, die neuronale Netze so ntzlich macht. Dies ermglicht es uns, Program zu erstellen, mit mit traditional computing unmglich wre. Erstel eines Softwareprogrammes, ein Gesicht zu erkennen, zum Beispiel, extrem schwierig wre. Det er bare et nettverk, en Netzwerk, en Gesicht zu erkennen, da det alltid blir nettopp som Netzwerk-Gesichter zu trainieren. Das Gehirn ist ein faszinierendes Thema aus eigenem Recht. Nebenbei bemerkt, Meine Frau und ich nehmen einen Umfrage-Kurs in der Neurologie er en video-serie The Great Kurse. Wenn Sie Interesse en allen i den Gegenstand haben, Ich empfehle Verstehen des Gehirns von Jeanette Norden. Es umfasst im Detail wie Neuronen Anatomie im gesamten Gehirns und des Gesamten Krpers verbinden. Neuronale Netze og Devisenhandel Neuronale Netze kommer inn Spiel, wenn die Antwort nicht så przise ist. Kleben mit diesem Blog Theme Devisenhandel, er det riktige svaret, var det perfekte systemet for handel. En typisk privat lektor, det beste systemet for den handel er der, som er den mest magiske kraften. En annen ting er det, det beste systemet for handel er der med Sharpe-forholdet. Viele wollen etwas in der Mitte. Das Problem der quotBest trading Systemquot ist mehrdeutig, wodurch es einen idealen Kandidat fra Angriffe mit neuronalen Netzen. Dør Designer-Konturen-Stze von Vorschriften, dø, Laut des Hndlers, bildet er et numerisk metode for messing av beste systemer. Menschliche Gehirn er vert for 100 Milliard Neuronen. Trotz der Bemhungen vieler unserer Kunden, Ich habe no mit mit 100 Milliard Marktindikatoren zur Verfgung. Eine Mglichkeit, forsterker Wirkung von Neuronen i usynlig Verktøykasse, er en av de mest etterspurte Ebenen erstellen. Ein Netwerk bestreftes mehreren Schichten, jeweils mit mehreren Neuronen gebildet. Jedes Neuron ist mit jedem Neuron in der nchsten Ebene verbunden. Jede Verbindung dannet seg selv som engangsvektet Wert. Eine Neuron wird den Wert des Neurons multiplieriert und durch das Gewicht des die ausgehende Verbandung der Wert bergeben. Das Neuron er Ende dø ausgehende Verbindung wird zusammenfassend alle eingehenden Verbindungen und propagieren dieses Ergebnis auf die nchste Ebene durch alle ausgehenden Verbandungen. Bilder machen die Idee weit intuitivere. Abbildung 1 enthlt ein kleines Beispiel. Die 2 und 3 auf der linken Seite sind die Eingnge ins Netz. Diese Eingnge er et høyt nivå på vekten av forbindelsen mellom de to og flere. Die 2 multiplieriert mit dem 0,5 geben uns 1, und 3 von 2 geben uns 6. Die zweite Schicht enthlt einen Node die fasst die Ergebnisse aus der vorherigen Schicht, geben uns 7. Der nchste Schritt zu vermehren 7 durch die Gewichte auf die ausgehenden Verbindungen und bergeben Sie sie auf der nchsten Ebene. Abbildung 1: Ein Beispiel fra ein neuronales Netz, die Weitergabe der Ergebnisse nach vor. Das kurze Beispiel oben knnen wiederholt und i Form eines greren Netzwerks miteinander verketter werden. Unter, i Abbildung 2, har Wir haben ein Beispiel ei greren Netzwerks. Beispielnetzwerk hat 3 Eingaben, die verborgene Ebene verbunden sind. Die verborgene Ebene wird dann zu einem einzigen Ausgang angeschlossen. Ausgeblendeten Ebenen ble Schulungen zu erleichtern. Je komplexer das Problem du mehr Schichten und Knoten erforderlich. Abbildung 2: Ein Beispiel fra ein greres neuronales Netz. Das Netz lernt durch die Gewichte viele Verbindungen aktualier. Es gibt viele Softwarealgorithmen, die verwendet werden, om lernen in neuronalen Netzen zu erreichen. Sie falt i Zwei Kategorien, berwachte und Unberwachtes Lernen. Betreutes lernen geschieht mit dem Benutzer im Netzwerk zu sagen, wenn seine Vorhersagen korrekt sind. Das Netzwerk dannet seg med Fehler und einem der Algorithmen Verwendet, om den Fehler zu beheben. Ein Beispiel hierfr er die umgekehrte Vermehrung, die Fehler der Vorhersage des Netzes berechnet. Das Netzwerk verwendet einen schnellen Algorithmus dannet alle Gewichte Verbindung mit diesem Fehler aktualisier. Umgekehrte Vermehrung ist ein der Hufigeren Training Strategy. Unberwachtes Lernen verwendet irendeine Art von Fitness eller scoring-Algorithmus, i dem Netzwerk wird Ergebnis selbst mit und versuchen, bei jedem nachfolgenden Versuch zu verbessern. Ein Beispiel fr unbeaufsichtigt Trening er den genetiske algoritmusen. Dieser Algorithmus erstatter eine Bevlkerung von neuronalen Netzen und Verwendet ein Bewertungsalgorithmus entwickelt, die von Benutzer zum Rang der Bevlkerung. Danach, Es ist berleben der strksten. Die Top-Rang-Netze er blekket og ble fortalt av produsentene og ikke lenger til Platz. Die Netze reproduserer, innlemmer og tilpasser forbinderen. Neuronale Netze knnen erheblich Systeme Hndler ihre Algorithmentechnik durch erforschen Milliard Kombinasjon unter eine relativ kleine Toolbox Indicators untersttzen. Dies unterscheidet sich vom standard-Optimierung, die Wird Zahlen in verschiedenen Indikatoren, der Suche nach was Kombination gibt das meiste Geld zurck. Die Tatsache, dass Netzwerke knuten mehrere Manahmen zu prfen (Gleichgewicht, Sharpe-Ratio, etc.) om zu bestimmen, die besten Handelssystem verringern hilft die Wahrscheinlichkeit, dass esine bestimmte Manahme overemphasizes. Ein gutes Beispiel dafr ist Kontostand. Wenn ein System das geben und Nehmen zwischen die Nettorendite und dem Risiko angepasst wie zurck, Es beginnt zu Schritt weg von der Zahlenverarbeitung entdecken die besten Zahlen zu nutzen und weiter in Richtung tatschliche Lern - und Muster-Anerkennung. Neuronale Netze er en av de mest ettertraktede i verden. Sie excel wo gibt es Muster, die schwierig fr uns, zu erkennen sind. Diese Fhigkeit macht Netzwerke von unschtzbarem Wert bei der Lsung schwieriger Problem med mehreren Variablen. MetaTrader 4 - Beispiele Rezepte f252r neuronale Netzwerke Einleitung Det er ikke så langt her, som Hndler eller keine Computer og teknisk analyse Analyze hatten und versucht haben mit Hilfe von Formeln og Regelmigkeiten, som kjenner seg til gode, er døde, og de er veldig dårlige. Sie wurden ofte als Scharlatane bezeichnet. Die Zeit verging, die Metoden der Informationsverarbeitung er komplizierter, und es gibt kaum noch Hndler, denen die Technische Analyse gleichgltig ist. Jeder Anfnger kann ganz einfach Diagram, vises Indikatorer sowie Suche nach Regelmigkeiten nutzen. Die Zahl der Forex-Hndler wchst tglich. Damit steigen auch die Anforderungen fr die Methoden zur Marktanalyse. Eine dieser relativ neuen Metoden er døden Verwendung von theoretischen Fuzzy-Logiken og neuronalen Netzwerken. Wir stellen fest, dass Fragen zu diesem Tema aktiv i forskjellige temaer. Foren diskutiert werden. Dette er en av de mest populære bøkene. Ein Mensch, der den Markt, har bare en hatt, men jeg vil verlassere. Jeg er en av Herausforderung fra die Intelligenz, das Gehirn und die Willensstrke. Deshalb hrt ein Hndler ikke med, og er ikke noe annet enn å se Anstze in die Praksis omzusetzen. I diesem artiklene ble de grunnleggende oppdaget av Neuronal Neurology Analyse og mer enn Begriff des Kohonen neuronalen Netz erfahren. Auerdem ble en av de beste metodene for Handelsoptimierung sprechen. Dieser Artikel er vår allem fra Hndler tankegang, som er en avansert studie av neuronalen Netze og der Prinzipien der Informationsverarititung. Um ein neuronales Netzwerk mit der Kohonen-Schicht zu kochen, bentige man: 1) 10.000 historisk Balken eines Whrungspaars 2) 5 Grammegivende Durchschnitte (Moving Averages) eller andre Indikatorer - dersom det er Enhanced 3) 2-3 Skjermer av inversen Verteilung 4 ) Metoder der Optimierung als Fllung 5) Wachsender Saldo og eine steigende Zahl en riktige erratenen Richtungen beim Handel. Abschnitt I. Rezept der Kohonen-Schicht Begynn med dem Abschnitt fr dieigenigen, die ganz am Anfang stehen. Wir werden verschiedene Anstze zum Einarbeiten der Kohonen-Schicht oder um genauer zu sein, dessuten Basisversion diskutieren, denn er gibt viele Varianten davon. Es gibt eigentlich nichts Besideses diesem Kapitel, alle Erklrungen stammen von den klassischen Referenzen zu diesem Tema. Der Vorteil dieses Kapitels ist jedoch die grow Anzahl von erluternden Abbildungen zu jedem Abschnitt. I diesem Kapitel ble det følgende fra Fragen eingehen: - Die Art und Weise der Kohonen Wichtungsvektoren eingestellt werden - vorlufige Vorbereitung von Eingabevektoren - Auwahl der ursprunglichen Gewichtungen der Kohonen Neuronen. Laut Wikipedia representiert ein Kohonen neuronale Netzwerk eine Klasse von neuronalen Netzwerken, med overholdelse av ihnen fra Kohonen-Schicht ist. Die Kohonen-Schicht beste er tilpasset lineær Addierern (lineare formale Neuronen). In der Regel ble de Ausgangssignale der Kohonen-Schicht etter Regel der Gewinner bekommt alles verarbeitet: die grten Signale ble verifisert i Einser, alle andre Signale ble zu Nullen. Nun wollen wir diesen Gedanken mit Hilfe eines Beispiels errtern. Zum Zwecke der Visualisierung ble alle beregnede for svingdimensjonale Eingabevektoren angegeben. In der Abb. 1 wird der Eingabevektor i Farbe dargestellt. Jedes Neuron der Kohonen-Schicht (som er en av de andre og Schicht), er en av de mest kjente i verden. Eigentlich sind alle Gewichtungen der Kohonen-Schicht Vektor-Koordinater fra dieses Neuron. Daher er Ausgabe eines jeden Kohonen Neurons som er produsert av zwei Vektoren. Von der Geometrie wissen wir das maximale Punktprodukt entreht, wenn der Winkel zwischen Vektoren Richtung Null tendiert (der Kosinus-Winkel tendiert zu 1). Der maksimal Wert wird også Jener des Kohonen-Schicht Neurons sein, det er nesten alltid Eingabevektor ist. Abb.1 Der Gewinner ist der Neuron, desser Vektor er nhesten zum Eingangssignal ist. Entsprechend der Definition sollten wir jetzt den maksimal Ausgabewert unter allen Neuronen finner, desser Ausgabe eine Eins und alle andre Neuronen eine Null zuweisen. Und dør Kohonen-Schicht wird uns antworten, i welchem ​​Raumbereich der Eingabevektor ligget. Pasung von Kohonen Gewichtungsvektoren Der Zweck der Einarbeitung mit der Kohonen-Schicht ist wie bereits oben geschrieben, die przise Raumklassifizierung der Eingabevektoren. Dies bedeutet, dass jedes Neuron fr seinen ganz bestimmten Beregnet for å se på musen, i dem er der Vinner ist. Der Abweichungsfehler des Gewinner-Neurons fra Eingabeneuron muss kleiner sein som jener der anderen Neuronen. Om det er det, er det en av de mest nevneverdige i Neuron i Seite des Eingabevektors. Abb. 2 år siden døra av zwei Neuronen (Schwarze Neuronen) fra Sveits Eingabevektoren (die farbigen). Abb. 2: Jedes der Neuronen har fått en e-post til Eingangssignal. My Jeder Wiederholung nhert sich das Gewinner-Neuron seinem eigenen Eingabevektor. Seine neuen Koordinaten werden entsprechend der folgenden Formel beregnes: med A (t) der Parameter der Einarbeitunsgeschwindigkeit ist und von der Zeit t abhngt. Dies ist eine nicht ansteigende Funktion, die beieder Wederholung von 1 auf 0 reduziert wird. Wenn der Anfangswert A1, jeg er en av de mest verdifulle faktorene i verden. Dies ist mglich, wenn es fr jeden Einangsvektor ein Kohonen-Neuron gibt (zum Beispiel 10 Eingabevektoren und 10 Neuronen in der Kohonen-Schicht). In der Praxis tritt så ein Fall aber fast ikke ein, da i den regelen er voksene av Eingabedaten i Gruppen opptatt av museet, som vi er enige om Vielfalt der Eingabedaten. Deshalb er der Wert A1 unerwnscht. Die Praxis seigt, dass der optimal Anfangswert unter 0,3 sein sollte. Auerdem er en umgekehrt proporsjonal zu der Anzahl der Eingabevektoren. Das heit bei einer groen Auswahl ist es besser, kleine Korrekturen vorzunehmen, så dass den Gewinner-Neuron nicht durch den ganzen Raum i seinen Korrekturen surft. Hvis A-Funksjonalitet er i orden, er det en monoton fallende funksjon. Zum Beispiel Hyperbel oder lineare Abnahme eller dø Gau-Funktion. Abb. 3 seiger den Schritt der Neuronengewichtungskorrektur der Geschwindigkeit A0,5. Das Neuron hat som dem Eingabevektor genhert, der Fehler ist kleiner. Abb. 3: Neuronengewichtungskorrektur unter dem Einfluss des Eingangssignals. Kleine Anzahl von Neuronen i einem breiten Beispiel Abb. 4: Neuron Schwankungen zwischen zwei Eingabevektoren. In der Abb. 4 (lenker) Gibt es zwei Eingabevektoren (i Farbe angezeigt) und nur ein Kohonen Neuron. Im Prozess der Korrektur wird das Neuron von einem Vektoren er einem anderen schwingen (gepunktete Linien). Da der A-Wert sich bis 0 verringert, stabiliseres sich zwenen ihnen. Die Neuron-Koordinaten, die von Zeit zu Zeit ndern, knuten durch ein Zick-Zack-Linie charakterisiert werden (Abb. 4 rechts). Abb. 5: Abhngigkeit des Klassifikationstyps hinsichtlich der Anzahl von Neuronen. Eine weitere Situasjonen i Abb 5. Gezeigt. Jeg ersten Fall teilen vier Neuronen die Probe ausreichend i vier Bereiche der Hyperkugel. Im zweiten Fall fhrt die ungengende Anzahl von Neuronen zu einem Fehler und zur Neuklassifizierung der Probe. Wir knnen somit daraus schlieen, dass die Kohonen-Schicht eine ausreichende Anzahl von freien Neuronen erhalten muss, die von Volumen der Klassifizierten Probe abhngt. Vorlufige Vorbereitung der Eingabevektoren Hvem Philip D. Wasserman i seinem Buch skrever, men er ikke en obligatorisk), som Eingabevektoren er normaliserende, gir deg det samme i nettverket. Dies wird durch das Aufteilen einer jeden Komponenten des Eingabevektors durch die Vektorlnge erledigt. Diese Lnge wird durch die Extraktion der Quadratwurzel aus der Summe der Quadrate der Vektorkomponenten gefunden. Dies ist die algebraische Darstellung: Dies vandret den Eingabevektor i einenvektorvektor mit der gleichen Richtung um, det er et eneste vektor med det som er i et dimensjonalt Raum. Die Bedeutung dieser Operation er klar - de Pojizieren aller Eingabevektoren på Oberflche der Hyperkugel, som er døde av Aufgabe, døde Kohonen-Schicht zu suchen, erleichtert wird. Min anderen Worten, fr de Suche nach dem Winkel, har fått en eingabevektoren og den Vektoren-Kohonen-Neuronen, som er en solklinisk faktor, og som gir deg muligheten til å eliminere alle muligheter. Sehr ofte haben die Elemente von Probevektoren keine negativen Werte (zum Beispiel von Moving Averages, Kursen). Sie alle konzentrieren sich auf den positiva Quadranten im Raum. Als Ergebnis der Normalisierung einer solchen positiven Probe erhalten wir die Grow Ansammlung von Vektoren i nur einem positiven Bereich, var ikke nicht sehr gut fr die Qualification ist. Deshalb kann vor der Normalisierung der Probe eine Glttung durchgefhrt werden. Wenn die Probe ziemlich gro ist, knnen der davon ausgehen, da de Vektoren i etwa i einem Bereich befinner seg, ohne Auenseiter, dør viit entntnt von der Hauptprobe sind. Deshalb kann eine Probe relativ zu ihren extremen Koordinater zentriert werden. Abb. 6: Normalisierung der Eingabevektoren. Wie oben geschrieben, ist die Normalisierung der Vektoren wnschenswert. Sie vereinfacht die Korrektur der Kohonen-Schicht. Wir sollten jedoch deutlich eine Probe darstellen und entscheiden, ob zie auf einer Kugel projiziert werden soll oder nicht. Liste 1. Verschmlerung der Eingabevektoren im Bereich -1, 1 Wenn wir die Eingabevektoren normalisieren, sollten wir auch dementsprechend alls Neuronen-Gewichtungen normalisieren. Auswhlen der ursprnglichen Neuronen-Gewichtungen Die mglichen Varianten sind zahlreich. 1) Zufllige Werte werden den Gewichtungen zugeordnet, wie is mit Neuronen gemacht wird (Randomisierung) 2) Initialisierung durch Beispiele, wert von zufllig ausgewhlten Beispielen aus einer Einarbeitungsprobe als Anfangswerte zugeordnet sind 3) Lineare Initialisierung. I diesem Fall ble døden Vektungen durch Vektorwerte initiert, dør lineær entlangen fra de samme linjene Raums zwischen zwei Vektoren fra dem originale Datasatz angeordnet sind. 4) Alle Vektene har det gratulerer Wert - Metode der konvexen Kombinasjon. Lassen Sie uns den ersten und letzten Fallanalyse. 1) Zufallswerte ble den Vektungen zugeordnet. Whrend der Randomisierung ble alle Vektor-Neuronen fra Oberflche einer Hyperkugel verteilt. Whrend die Eveabevektoren eine Tendenz zur Gruppierung haben. I diesem Fall kan es vorkommen, dass einige Gewichtungsvektoren, slik at de er i stand til å oppnå Eingabevektorenes haben, ikke noe annet enn at de er korrelerte og ikke har noe å si om - grunneobjekter i Abb. 7 (høyre). Darber Hinaus ble døden Neuronen nicht ausreichen, om den Fehler zu minimieren und hnliche Klassen zu unterteilen - die rote Klasse ist im grnen Neuron enthalten. Abb. 7: Einarbeitungsergebnis von randomisierten Neuronen. Und venn es eine grow Ansammlung von Neuronen i einem Bereich gibt, knnen mehrere Neuronen in den Bereich einer Klasse endringer und diesen in Unterklassen teilen - orangefarbener Bereich in Abb. 7. Dies er ikke kritisk, da Weiterverarbeitung der Schichtsignale die Situationen beheben kann. Dies dauert jedoch die Einarbeitungszeit ber. Eine der Varianten Zum Lsen dieser Problemet er den metoden, som er en av de mest kjente, og ikke bare av Vektoren eines gewinnende Neurons, men det er ikke så godt som en gruppe av vektorer. Dann wird sich die Anzahl der Neuronen in der Gruppe allmhlich verringern und letztendlich wird nur ein Neuron corrigiert. Eine Gruppe kan bare en sortering Array von Neuronen-Ausgngen aus gewhlt werden. Neuronen von den ersten K Maksimal-Ausgangssignalen ble korrigiert. Eine weitere Vorgehensweise zur gruppierten Anpassung der Gewichtungsvektoren er de følgende Verfahren. a) Fr jedes Neuron wird die Lnge des Korrekturvektors definiert:. b) Ein Neuron mit minimalem Abstand wird zum Gewinner Wn. Danach wird eine Gruppe von Neuronen gefunden, die i Korrelation zu die Banden der Distanz CLn von Wn stehen. c) Gewichtungen dieser Neuronen ble til en enkelt regel Regel korrigiert. Somit wird die Korrektur der gesamten Probe gemacht. Der Parameter C ndert sich im Prozess der Einarbeitung von Einer Nummer (blicherweise 1) auf 0. Die dritte interessant Metode bedeutet, dass jedes Neuron nur Nk Mal korrigiert ble wann, wenn es durch die Probe kommt. Jeg er her dør Gre der Probe, k-dommen Anzahl der Neuronen. Das heit, eines der Neuronen, er en av de andre. Es beendet das Spiel wenn das Passieren der Probei vorbei ist. Dere kjenner til andre Neuronen lernen. 2) Metode der Konvexkombination Die Bedeutung des Verfahrens beinhaltet, dass sowohl die Gewichtung als de Eingabevektoren zunchst in einem Bereich angeordnet sind. Die Berechnungsformeln fr die aktuellen Koordinaten der Eingabe - und ursprunglichen Gewichtungsvektoren sind die folgenden: wobei die Dimension eines Eingabevektors, a (t) - die nicht abnehmende Funktion der Zeit ist. My Jeder Wiederholung erhht sich dessen Wert von 0 auf 1, wodurch alle Eingabevektoren mit den Gewichtungsvektoren bereinstimmen und schlielich ihre Pltze einnehmen. Auerdem ble drevet av Vektungsvektoren nach ihren Klassen greifen. Dies sind alle Materialien er Basisversion der Kohonen-Schicht, dør i disse neuronaler Netzwerk angewendet werden. II. Lffel, Schpfkellen og Skripte Das erste Skript, som ble diskutert, sammelt Daten ber Balken og erstatter eine Datei von Eingabevektoren. Lassen Sie uns MA als Traininsbeispiel verwenden. Liste 2. Erstel einer Datei von Eveabevektoren Die Datendatei wird als Mittel zur bertragung von Informationen zwischen Anwendungen geschaffen. Wenn Sie die Einarbeitungs-Algoritmen kennerlernen, wird dringend empfohlen, dass Sie die Zwischenergebnisse ihrer Aktiviten, die Wert einiger Variablen und falls useful, die nderungen der Traininsbedingungen beobachten. Deshalb empfehlen wir Ihnen, die Programmeringsprache eines hohen Niveaus (VB, VC etc.) zu verwenden, whrend das Debuggen mit MQL4 nicht genug ist (ich hoffe, diese Situasjon wird in MQL5 verbessert). Spter, wenn Sie ber alle Tcken Ihrer Algorithmen und Funktionen er herre, men du begynner, MQL4 er skadet. Auerdem mssen Sie das endgltige Ziel (Indikator oder Expert Advisor) i MQL4 schreiben. Verallgemeinerte Struktur der Klassen Liste 3. Klasse Neuronalen Netzwerks Eigentlich er die Klasse nicht komplex. Denne tjenesten er vesentlig. Satz Service Variable. Lassen Sie uns sie analysieren. Auf Anweisung eines Befehls vom Benutzer, erstattes av Interface-Klasse einen Arbeits-Thread og initierer einen Timer fra de periodiske Auslesen der Netzwerkwerte. Se empfngt auch Indexe zum Auslesen der Informationen aus Parametern neuronaler Netzwerke. Der Arbeits-Thread wiederum liest die Arrays von Eingabe-Ausgabevektoren aus der vorlufig ausgearbeiteten Datei aus und stellt die Parameter fr die Schichten ein (die Schichttypen und die Anzahl der Neuronen in jeder Schicht). Dies ist die Vorbereitungsphase. Danach rufen wir die Funktion CNeuroNet::Init auf, in der die Gewichtungen initialisiert werden, die Probe normalisiert wird und die Einarbeitungsparameter eingestellt werden (Geschwindigkeit, Impuls, erforderlicher Fehler und die Anzahl der Traininszyklen). Und erst danach rufen wir die Arbeitspferd Funktion - CNeuroNet::TrainNetwork (oder TrainMPS. oder TrainNetwork(int L) auf, je nachdem, was wir erhalten wollen). Wenn die Einarbeitung vorbei ist, speichert der Arbeits-Thread die Netzwerkgewichtungen in eine Datei fr die Implementierung der letzten in einen Indikator oder Expert Advisor. III. Backen des Netzwerks Kommen wir nun zu den Problemen beim Einarbeiten. Die bliche Praxis in der Einarbeitung legt das Paar Muster-Lehrer fest. Das ist ein bestimmtes Ziel, das jedem einzelnen Eingabemuster entspricht. Auf der Grundlage der Differenz zwischen der aktuellen Eingabe und dem Sollwert wird die Korrektur der Gewichtungen durchgefhrt. Zum Beispiel mchte ein Researcher haben, dass das Netz den Kurs des darauffolgenden Balkens anhand der vorherigen 10 Balken prognostiziert. In diesem Fall mssen wir nach der Eingabe der 10 Werte das erhaltene Ergebnis mit dem Lernwert vergleichen und dann die Gewichtungen fr den Unterschied zwischen ihnen korrigieren. In dem Modell, das wir anbieten, gibt es keine Lern-Vektoren im blichen Sinne, da wir nicht im Voraus wissen, bei welchen Balken wir den Markt betreten oder verlassen sollten. Das bedeutet, dass unser Netzwerk seine Ausgabevektoren auf der Grundlage seiner eigenen frheren Ausgabewerte korrigieren wird. Das bedeutet, dass das Netzwerk versuchen wird, den maximalen Gewinn zu erhalten (Maximierung der Anzahl der richtig vorhergesagten Richtungen im Markt). Betrachten wir das Beispiel in Abb. 8. Abb. 8: Schema des eingearbeiteten neuronalen Netzwerks. Die Kohonen-Schicht, die anhand einer Probe voreingearbeitet ist, gibt seinen Vektor an das Netzwerk weiter. Bei der Ausgabe der letzten Schicht des Netzwerks, haben wir den Wert OUT, der auf folgende Weise interpretiert wird. Wenn OUT gt0,5 ist, gehen Sie eine Kaufposition ein wenn OUT lt0,5 ist, gehen Sie eine Verkaufsposition ein (die sigmoiden Werte werden in Grenzen verndert 0, 1). Angenommen zu einem gewissen Eingabevektor X 1 hat das Netzwerk durch die Ausgabe OUT 1 gt0,5 geantwortet. Das bedeutet, dass wir auf dem Balken, zum dem das Muster gehrt, wir eine Kaufposition ffnen. Danach verwandelt sich bei der chronologischen Darstellung der Eingabevektoren nach einigen X k das Zeichen OUT k in das Gegenteil. Folglich schlieen wir die Kaufposition und ffnen eine Verkaufsposition. Genau in diesem Moment mssen wir das Ergebnis der geschlossenen Order betrachten. Wenn wir einen Gewinn erhalten, knnen wir diesn Alarm strken. Oder wir knnen erachten, dass es keinen Fehler gibt und wir nichts korrigieren werden. Wenn wir einen Verlust erhalten, korrigieren wir die Gewichtungen der Schichten in einer solchen Weise, dass die Eingabe durch den Alarm des X 1 Vektors OUT 1 lt0,5 anzeigt. Nun wollen wir den Wert der Lern-(Ziel)-Ausgabe berechnen. Lassen Sie uns daher den Wert eines Sigmoiden aus dem erhaltenen Verlust (in Punkten) nehmen und multiplizieren ihn mit dem Zeichen der Handelsrichtung. Folglich gilt, dass je grer der Verlust ist, desto strenger das Netzwerk bestraft und seine Gewichtungen durch den greren Wert korrigieren werden wird. Wenn wir zum Beispiel 50 Verlustpunkte bei einer Kaufposition haben, dann wird die Korrektur fr die Ausgabeschicht wie unten dargestellt berechnet: Wir knnen die Handelsregeln fr die Handelsanalyseprozessparameter von TakeProfit (TP) und StopLoss (SL) in Punkten begrenzen. Wir mssen also 3 Ereignisse verfolgen: 1) nderung des OUT Zeichens, 2) Kursnderungen vom Erffnungspreis durch den Wert von TP, 3) Kursnderungen vom Erffnungskurs durch den Wert - SL. Wenn eines dieser Ereignisse auftritt, wird die Korrektur der Gewichtungen auf analoge Weise durchgefhrt. Wenn wir einen Gewinn erhalten, bleiben die Gewichtungen entweder unverndert oder sie werden korrigiert (strkeres Signal). Wenn wir einen Verlust haben, werden die Gewichtungen korrigiert, damit die Eingabe durch den Alarm vom X 1 Vektor OUT 1 mit dem gewnschten Zeichen anzeigt. Der einzige Nachteil dieser Begrenzung ist die Tatsache, dass wir absolute TP und SL Werte verwenden, was bei einem langen Zeitraum unter aktuellen Marktbedingungen nicht so gut fr die Optimierung eines Netzwerks ist. Meine persnliche Bemerkung dazu ist, dass TP und SL nicht weit voneinander entfernt sein sollten. Das bedeutet, dass das System symmetrisch sein muss, um whrend der Einarbeitung eine Abweichung hinsichtlich der Richtung eines globaleren Kauf-oder Verkaufstrend zu vermeiden. Es gibt auch eine Meinung, dass der TP 2-4 mal grer als der SL sein sollte - so erhhen wir knstlich das Verhltnis von profitablen und verlustbringenden Trades. Aber in solch einem Fall besteht die Gefahr, dass die Einarbeitung des Netzwerks mit einer Verschiebung in Richtung Trend erfolgt. Natrlich knnen beide Varianten existieren, aber Sie sollten beide bei Ihren Untersuchungen berprfen. Liste 4. Eine Wiederholung des Setups fr die Netzwerkgewichtung Durch diese einfachen Arbeitsgnge wird das Netzwerk letztendlich die erhaltenen Klassen aus der Kohonen-Schicht in einer solchen Weise verteilen, dass es fr jede einen Alarm zum Markteinstieg mit dem entsprechenden Maximalgewinn gibt. Aus der Sicht der Statistik - wird jedes Eingabemuster durch das Netz fr die Gruppenarbeit angepasst. Whrend ein und derselbe Eingabevektor whrend des Vorgangs zur Gewichtungsanpassung Alarme in verschiedenen Richtungen geben kann, wird allmhlich die maximale Anzahl der richtigen Vorhersagen erhalten. Diese Methode kann als dynamisch beschrieben werden. Das verwendete Verfahren wird auch als MPS (Profit Maximizing System) bezeichnet. Hier sind Ergebnisse der Anpassung von Netzwerkgewichtungen. Jeder Punkt im Diagramm ist der Wert des erhaltenen Gewinns in Punkten whrend des Einarbeitungszeitraums. Das System ist immer Marktaktuell, TakeProfit StopLoss 50 Punkte, Fixierung erfolgt nur durch eine Stop-Order, Gewichtungen werden bei Gewinn oder Verlust korrigiert. Sie sehen, nach dem negativen Start werden die Gewichtungen der Schichten angepasst, so dass nach etwas hundert Wiederholungen, der Gewinn positiv wird. Interessant ist die Tatsache, dass das System bei einigen Niveaus etwas langsamer wird. Dies hngt mit den Parametern der Einarbeitungsgeschwindigkeit zusammen. Wie Sie in der Liste 2 sehen knnen, wird der Gewinn ProfitPos durch die Schlusskurse der Balken berechnet, auf denen wir die Position erffnet und auf welchem die Bedingungen (Stop-Order oder Alarmnderung) eingetroffen sind. Natrlich ist dies ein grobes Verfahren, insbesondere im Fall von Stop-Orders. Wir knnen durch das Analysieren von Hochs und Tiefs des Balkens (bar1ipat und bar2ipat) eine Verfeinerung hinzufgen. Sie knnen versuchen, dies selbst zu tun. Suche nach Einstiegen Wir haben also das dynamische Einarbeitungsverfahren studiert, welches das Netzwerk durch seine eigenen Fehler einarbeitet. Sie haben sicher bemerkt, dass wir entsprechend dem Algorithmus immer den Markt betreten mit fixem GewinnVerlust. Wir mssen daher unsere Einstiege begrenzen und versuchen, nur bei gnstigen Eingabevektoren den Markt zu betreten. Das bedeutet, dass wir die Netzwerk-Alarmstufe zum Einstieg in den Markt von den profitablenverlustbringenden Trades abhngig machen mssen. Dies kann sehr leicht durchgefhrt werden. Lassen Sie uns die Variable 0ltMlt0,5 vorstellen, die das Kriterium eines Markteintritts sein wird. Wenn Outgt0,5M, dann kaufen Sie, wenn Outlt0,5-M, dann verkaufen Sie. Wir kristallisieren Ein-und Ausstiege mit Hilfe von Vektoren heraus, die zwischen 0,5-MltOutlt0,5M liegen. Ein weiteres Verfahren zum Aussieben von unntigen Vektoren ist das Sammeln von statistischen Daten ber die Rentabilitt einer Order anhand von den Werten bestimmter Ausgaben des Netzwerks. Nennen wir es eine visuelle Analyse. Davor sollten wir das Verfahren zur Positionsschlieung definieren - Erreichen der Stop-Order, nderung des Netzwerk-Ausgabesignals. Lassen Sie uns eine Tabelle erstellen Out ProfitPos. Die Werte von Out und ProfitPos werden fr jeden Eingabevektor (das heit fr jeden Balken) berechnet. Dann lassen Sie uns eine bersichtstabelle zum ProfitPos Feld machen. Als Ergebnis werden wir die Abhngigkeit zwischen dem Out Wert und dem erhaltenen Gewinn sehen. Whlen Sie den Bereich Out M Lo. M Hi . in dem wir den besten Gewinn haben und verwenden Sie seine Werte fr den Handel. Zurck zu MQL4 Nachdem wir mit der Entwicklung in VC begonnen haben, haben wir nicht versucht, die Mglichkeiten von MQL4 zu wrdigen. Dies war aus Grnden der Bequemlichkeit. Ich werde Ihnen ein Erlebnis erzhlen. Vor kurzem hat einer meiner Bekannten versucht, eine Datenbank ber Firmen in unserer Stadt anzulegen. Es gibt eine Menge von Verzeichnissen im Internet, aber niemand wollte die Datenbank verkaufen. Wir schrieben also ein Skript in MQL4 . das die HTML-Seite scannt und einen Bereich mit Informationen ber ein Unternehmen auswhlt und diesen in einer Datei speichert. Danach haben wir die Datei in Excel bearbeitet und die Datenbank von drei groen gelben Seiten mit allen Telefonnummern, Adressen und Firmenaktivitten war fertig. Dies war die vollstndigste Datenbank der ganzen Stadt fr mich war es das Gefhl von Stolz und Leichtigkeit, was die Mglichkeiten von MQL4 betrifft. Natrlich kann man ein und dieselbe Aufgabe in verschiedenen Programmiersprachen lsen, aber es ist besser die eine zu whlen, die hinsichtlich MglichkeitenSchwierigkeit fr eine bestimmte Aufgabe die optimale ist. Nach dem Einarbeiten des Netzwerks sollten wir jetzt alle seine Parameter in einer Datei speichern, um sie nach MQL4 zu transferieren. - Gre des Eingabevektors - Gre des Ausgabevektors - Anzahl der Schichten - Anzahl der Neuronen nach Schichten - von Eingabe zur Ausgabe - Gewichtungen der Neuronen nach Schichten Der Indikator wird nur eine Funktion aus dem Arsenal der Klasse CNeuroNet verwenden CalculateLayer. Lassen Sie uns einen Eingabevektor fr jeden Balken bilden, den Wert der Netzwerkausgabe berechnen und den Indikator 6 bauen. Wenn wir uns bereits fr Eingabepegel entschieden haben, knnen wir Teile der erhaltenen Kurve in verschiedenen Farben malen. Ein Beispiel des Codes NeuroInd. mq4 ist dem Artikel angehngt. IV. Kreativer Ansatz Fr eine gute Umsetzung sollten wir einen breiten Verstand haben. Neuronale Netzwerke sind nicht die Ausnahme. Ich denke nicht, dass die angebotene Variante ideal ist und fr jede Aufgabe geeignet ist. Deshalb sollten Sie immer nach Ihren eigenen Lsungen suchen, das allgemeine Bild aufzeichnen, systematisieren und Ideen berprfen. Nachfolgend finden Sie einige Warnungen und Empfehlungen. - Netzwerk-Anpassung. Ein neuronales Netzwerk ist ein Annherer. Ein neuronales Netzwerk stellt eine Kurve her, wenn es Knotenpunkte bekommt. Wenn die Menge der Punkte zu gro ist, wird der zuknftige Aufbau schlechte Ergebnisse liefern. Alte Verlaufsdaten sollten von der Einarbeitung entfernt und neue sollten hinzugefgt werden. Dies ist, wie die Annherung an ein neues Polynom durchgefhrt wird. - bereinarbeiten. Dies kommt bei der idealen Anpassung vor (oder wenn es bei der Einarbeitung zu viele Eingabewerte gibt). Wenn einem Netzwerk ein Testwert gegeben wird, erhalten wir als Ergebnis ein falsches Resultat (Abb. 9). Abb. 9: Ergebnis einer bereingearbeiteten Netzwerks - falsche Prognose. - Komplexitt, Wiederholbarkeit, Widersprchlichkeit einer Einarbeitungsprobe. In den Arbeiten 8, 9 analysieren Autoren die Abhngigkeit zwischen den aufgezhlten Parametern. Ich nehme an, es ist klar, dass wenn verschiedene Lernvektoren (oder falls noch schlimmer, widersprchliche) ein und demselben Lernvektor entsprechen, ein Netzwerk nie lernen wird, sie richtig zu klassifizieren. Zu diesem Zweck sollten groe Eingabevektoren erzeugt werden, so dass sie Daten enthalten, mit denen Sie den Raum der Klassen abgrenzen knnen. Abb. 10 zeigt diese Abhngigkeit. Je hher die Komplexitt eines Vektors ist, desto geringer ist die Wiederholbarkeit und Widersprchlichkeit von Mustern. Abb. 10: Abhngigkeit der Eigenschaften von Eingabevektoren. - Einarbeiten des Netzwerks nach der Methode von Boltzmann. Diese Methode ist hnlich wie verschiedene mgliche Gewichtungsvarianten zu versuchen. Die knstliche Intelligenz eines Expert Advisors arbeitet hinsichtlich des Lernens nach einem hnlichen Prinzip. Beim Einarbeiten eines Netzwerks geht sie durch alle Varianten der Gewichtungswerte (wie beim Knacken eines Mailgox-Passworts) und whlt die beste Kombination aus. Dies ist eine arbeitsintensive Aufgabe fr einen Computer. Daher ist die Anzahl aller Gewichtungen eines Netzwerks auf zehn begrenzt. Wenn sich die Gewichtung zum Beispiel von 0 auf 1 (mit einem Schritt von 0,01) ndert, bentigen wir dafr 100 Schritte. Fr 5 Gewichtungen bedeutet dies 5100 Kombinationen. Dies ist eine groe Zahl und diese Aufgabe geht ber die Leistung eines Computers hinaus. Der einzige Weg, um ein Netzwerk nach dieser Methode zu bauen ist, eine groe Anzahl von Computern zu verwenden, wobei jeder davon einen bestimmten Teil verarbeitet. Diese Aufgabe kann von 10 Computern ausgefhrt werden. Jeder wird 510 Kombinationen verarbeiten, so dass ein Netzwerk komplexer gemacht werden kann, denn es kann eine grere Anzahl von Gewichtungen, Schichten und Schritten verwendet werden. Im Unterschied zu einem solchen Brachialen Angriff , wirkt die Methode von Boltzmann sanfter und schneller. Bei jeder Wiederholung wird eine zufllige Verschiebung auf die Gewichtung eingestellt. Wenn das System mit der neuen Gewichtung seine Eingabecharakteristik verbessert, wird die Gewichtung akzeptiert und eine neue Wiederholung durchgefhrt. Wenn eine Gewichtung den Ausgabefehler erhht, wird sie akzeptiert, wenn sie durch die Boltzmann Verteilungsformel berechnet wurde. Somit kann die Netzwerkausgabe am Anfang absolut unterschiedliche Werte haben. Eine allmhliche Abkhlung bringt das Netzwerk zum erforderlichen globalen Minimum 10, 11. Natrlich ist dies nicht die vollstndige Liste Ihrer weiteren Studien. Es gibt auch genetische Algorithmen, Methoden zur Verbesserung der Konvergenz, Netzwerke mit Speicher, Radialnetzwerke, Verbund von Rechern, usw. Ich mchte hinzufgen, dass ein neuronales Netzwerk kein Heilmittel fr alle Probleme beim Handeln ist. Der eine whlt eine unabhngige Arbeit und die Erstellung seiner eigenen Algorithmen und eine andere Person bevorzugt das Verwenden von bereiten Neuro-Paketen, von denen eine groe Anzahl im Markt gefunden werden kann. Haben Sie nur keine Angst vor Experimenten Viel Glck und groe Gewinne Der Markt ist ein Intellekt, das Finanzportfolio ist ein neuronales Netzwerk. Referenzen 1. Baestaens, Dirk-Emma Van Den Bergh, Willem Max Wood, Douglas. Neural Network Solutions for Trading in Financial Markets. 2. Voronovskii G. K. og andre. Geneticheskie algoritmy, iskusstvennye neironnye seti i problemy virtualnoy realnosti (Genetische Algorithmen, knstliche neuronale Netzwerke und Probleme der virtuellen Realitt). 3. Galushkin A. I. Teoriya Neironnyh setei (Theorie von neuronalen Netzwerken). 4. Debok G. Kohonen T. Analyzing Financial Data using Self-Organizing Maps. 5. Ezhov A. A. Shumckii S. A. Neirokompyuting i ego primeneniya v ekonomike i biznese (Neuronale Datenverarbeitung und ihre Verwendung in der Wirtschaft und Unternehmen). 6. Ivanov D. V. Prognozirovanie finansovyh rynkov s ispolzovaniem neironnyh setei (Prognose der Finanzmrkte mit knstlichen neuronalen Netzwerken) (Diplomarbeit) 7. Osovsky S. Neural Networks for Data Processing . 8. Tarasenko R. A. Krisilov V. A. Vybor razmera opisaniya situatsii pri formirovanii obuchayushchey vyborki dlya neironnyh setei v zadachah prognozirovaniya vremennyh ryadov (Die Wahl der Situation, Beschreibung, Gre beim Formen einer Einarbeitungsprobe fr neuronale Netzwerke zur Prognose bei Zeitreihen). 9. Tarasenko R. A. Krisilov V. A. Predvaritelnaya otsenka kachestva obuchayushchey vyborki dlya neironnyh setei v zadachah prognozirovaniya vremennyh ryadov (Vorlufige Schtzung der Qualitt einer Einarbeitungsprobe fr neuronale Netzwerke zur Prognose bei Zeitreihen). 10. Philip D. Wasserman. Neral Computing: Theory and Practice. 11. Simon Haykin. Neural Networks: A Comprehensive Foundation. 12. wikipedia. org 13. Das Internet. bersetzt aus dem Russischen von MetaQuotes Software Corp. Originalartikel: mql5ruarticles1562

No comments:

Post a Comment