Om du förbehandla data genom att ta en endags fart på stängningskursen för var och en av dessa marknader, eller jämna tidsserierna med glidande medelvärden, kommer du att öka antalet ingångs neuroner i enlighet därmed. Beroende på antalet insatsvarumarknaderna och omfång av förbehandlings, är det inte ovanligt att ett neuralt att ha flera hundra ingångs nervceller. Med övervakad lärande, skulle varje dags indata som till systemet under träningen även omfatta nästa dags TBOND priser.
Innan utbildning du ska slumpvis shufe de parade indata, så att uppgifterna inte lämnas till systemet kronologiskt. De dolda lager nervceller inte interagera direkt med omvärlden. Detta är där nätverket skapar sin interna symboluppsättning för att registrera indata till en form som fångar de dolda relationerna inom data, vilket gör att systemet för att generalisera. Val av lämpligt antal neuroner i det dolda lagret och antalet dolda lager att använda, hittas ofta genom experiment. För få neuroner förhindra systemet från träningen.
Om alltför många nervceller väljs, memorerar systemet dolda mönster utan att kunna generalisera. Sedan, om det senare presenteras med olika mönster, kommer den inte att förutse exakt eftersom det inte har urskilja de dolda relationer. Formatet på utgången som du vill att förutse avgör antalet utgångs neuroner som behövs. Varje utgång kategori använder en neuron. Om du vill att förutsäga nästa dag höga, låga, mittpunkten, och ett köp, sälj, eller stå vid sidan signal för Tbonds skulle systemet behöva sex utgångs lager nervceller.
Under träning, är systemets prognostiserade produktionen av nästa dags TBOND priser och signal jämfört med sina kända värden. Prognosfel används för att modifiera varje neuron anslutning styrka eller vikt, så att under efterföljande utbildnings iterationer, kommer systemet prognos vara närmare det verkliga värdet. Den "learning lag" för ett givet nätverk styr hur du ändrar dessa förbindelsevikterna för att minimera utgångs fel under senare utbildning iterationer. Även om det finns många lärande lagar som kan tillämpas på neurala