diff --git a/Dokumentation/Herausforderungen.tex b/Dokumentation/Herausforderungen.tex
index e7af929275d166816147b168ec956a1a86a9de6e..49a7cbf735746d49ae989ee504cc0ba503ff61e5 100644
--- a/Dokumentation/Herausforderungen.tex
+++ b/Dokumentation/Herausforderungen.tex
@@ -25,7 +25,7 @@ Wenn der Datensatz jedoch die Realität relativ gut darstellt ist es gerade für
 Der entwickelte Algorithmus soll die Kategorisierung aber nicht an fundiertem Raten ausmachen, sondern anhand von selbst erarbeiteten Kriterien und damit unabhängig der ursprünglichen Distribution.
 
 Generell gibt es zwei Ansätze, um diesen Effekt zu bekämpfen. Zum Einem gibt es die Möglichkeit, den \noteable{Near-Miss-Algorithm} zu benutzen. Mit Hilfe diesem werden im Grunde Einträge von zu oft vertretenen Klassen aus dem Datensatz entfernt, bis dieser ausgeglichen ist. Dadurch wird zwar verhindert, dass eine Klasse bei der Kategorisierung bevorzugt wird, aber man verringert auch den zu Grunde liegenden Datensatz. Je nach ursprünglicher Verteilung und gesamter Menge kann dies zu einem zu kleinen Datensatz und somit weiteren Problemen führen.
-Zum Anderen gibt es die Möglichkeit, die Klassen beim Trainieren zu gewichten. Hier werden selten auftretende Klassen stärker gewertet, um so für das Programm den Anschein zu erwecken, als ob diese häufiger vorkommen. \wip{Dies kann dazu führen, dass ausgemachte Kriterien für bestimmte Klassen als aussagekräftiger gelten, als sie eigentlich sind, da sie vermeintlich bei vielen Trainingsdaten so vorkamen}
+Zum Anderen gibt es die Möglichkeit, die Klassen beim Trainieren zu gewichten. \wip{Hier werden selten auftretende Klassen stärker gewertet, um so für das Programm den Anschein zu erwecken, als ob diese häufiger vorkommen. Dies kann dazu führen, dass ausgemachte Kriterien für bestimmte Klassen als aussagekräftiger gelten, als sie eigentlich sind, da sie vermeintlich bei vielen Trainingsdaten so vorkamen.}
 Im Rahmen dieser Arbeit wurde der zweite Ansatz gewählt.
 
 \subsubsection{Zeichensatz}
diff --git a/Dokumentation/w2vFromScratch.tex b/Dokumentation/w2vFromScratch.tex
index f1ec5098d88f64c6cd477f728ae107ace0fcbacf..813ffece6787622a6bccc77e6218fd79b9e6dd08 100644
--- a/Dokumentation/w2vFromScratch.tex
+++ b/Dokumentation/w2vFromScratch.tex
@@ -123,7 +123,7 @@ plt.rcParams["figure.figsize"] = (10,10)
 
 plt.show()
 \end{lstlisting}
-Die eigentliche Arbeit ist damit bereits getan. Da dieses Beispiel jedoch zur Veranschaulichung gedacht ist fehlt noch die Visualisierung. Dafür werden die Gewichte der jeweiligen Vektoren zunächst zusammen mit den entsprechenden Wörtern in ein Dataframe gespeichert. Anschließend wird der Plot vorbereitet und die Wörter werden anhand ihrer zweidimensionaler Vektoren auf einem Koordinatensystem verteilt. Das hier verwendete Beispiel ist insgesamt sehr akademisch gestaltet. Dadurch, dass zwei Dimensionen für Wortvektoren ziemlich gering ist, das Modell nicht ausführlich optimiert und auch die Ausgangsdaten relativ spärlich sind können die Ergebnisse stark voneinander variieren.Eine sinnvolle Verteilung ist jedoch in Abbildung \ref{fig:scratch} zu sehen.
+Die eigentliche Arbeit ist damit bereits getan. Da dieses Beispiel jedoch zur Veranschaulichung gedacht ist fehlt noch die Visualisierung. Dafür werden die Gewichte der jeweiligen Vektoren zunächst zusammen mit den entsprechenden Wörtern in ein Dataframe gespeichert. Anschließend wird der Plot vorbereitet und die Wörter werden anhand ihrer zweidimensionaler Vektoren auf einem Koordinatensystem verteilt. Das hier verwendete Beispiel ist insgesamt sehr akademisch gestaltet. Dadurch, dass zwei Dimensionen für Wortvektoren ziemlich gering ist, das Modell nicht ausführlich optimiert und auch die Ausgangsdaten relativ spärlich sind können die Ergebnisse stark voneinander variieren. Eine sinnvolle Verteilung ist jedoch in Abbildung \ref{fig:scratch} zu sehen.
 \begin{figure}
 	\includegraphics[width=\linewidth]{bilder/scratch.png}
 	\caption{Wort-Vektoren Verteilung}
diff --git a/python/hdf5.py b/python/hdf5.py
index 89c4081c63a1c8d252fc00ed46830d6c888129b4..af015a81eeefd4412df8f5a1f2c3cbfb2ad168b5 100644
--- a/python/hdf5.py
+++ b/python/hdf5.py
@@ -1,3 +1,4 @@
+from gensim.utils import chunkize
 if __name__ == '__main__':
 #%%
     import numpy as np
@@ -123,23 +124,32 @@ if __name__ == '__main__':
             i += 1
             index +=1
 
-        #XTrain.resize(XTrain.shape[0]+trainChunk, axis=0)
-        #XTrain[-trainChunk:] = xTrain
+        trainChunk = len(xTrain)
+        if trainChunk != 0:
 
-        #YTrain.resize(YTrain.shape[0]+trainChunk, axis=0)
-        #YTrain[-trainChunk:] = yTrain
+            XTrain.resize(XTrain.shape[0]+trainChunk, axis=0)
+            XTrain[-trainChunk:] = xTrain
 
-        #XVal.resize(XVal.shape[0]+valTestChunk, axis=0)
-        #XVal[-valTestChunk:] = xVal
+            YTrain.resize(YTrain.shape[0]+trainChunk, axis=0)
+            YTrain[-trainChunk:] = yTrain
 
-        #YVal.resize(YVal.shape[0]+valTestChunk, axis=0)
-        #YVal[-valTestChunk:] = yVal        
+        valTestChunk = len(xVal)
+        if valTestChunk != 0:
 
-        #XTest.resize(XTest.shape[0]+valTestChunk, axis=0)
-        #XTest[-valTestChunk:] = xTest
+            XVal.resize(XVal.shape[0]+valTestChunk, axis=0)
+            XVal[-valTestChunk:] = xVal
 
-        #YTest.resize(YTest.shape[0]+valTestChunk, axis=0)
-        #YTest[-valTestChunk:] = yTest
+            YVal.resize(YVal.shape[0]+valTestChunk, axis=0)
+            YVal[-valTestChunk:] = yVal
+
+        valTestChunk = len(xTest)
+        if valTestChunk != 0:
+
+            XTest.resize(XTest.shape[0]+valTestChunk, axis=0)
+            XTest[-valTestChunk:] = xTest
+
+            YTest.resize(YTest.shape[0]+valTestChunk, axis=0)
+            YTest[-valTestChunk:] = yTest
 
 #%%
 import h5py