5 Commits

Author SHA1 Message Date
Sem van der Hoeven
b454aed3fd [ADD] data folder link 2021-06-09 16:39:58 +02:00
Sem van der Hoeven
7664c5cb43 [ADD] github link 2021-06-09 16:37:28 +02:00
Sem van der Hoeven
bd06536443 [ADD] intro 2021-06-09 16:35:40 +02:00
Sem van der Hoeven
1d8d064e16 comments 2021-06-09 16:28:00 +02:00
Sem van der Hoeven
ac1995feb6 comments 2021-06-09 16:20:50 +02:00

View File

@@ -5,7 +5,8 @@
"id": "ab021475",
"metadata": {},
"source": [
"## Jupyter notebook Lars Rook & Sem van der Hoeven"
"## Jupyter notebook Lars Rook & Sem van der Hoeven\n",
"Dit is ons groeidocument voor het machine learning deel van CVML. We hebben onze notebook en alle bijbehorende bestanden op een [git repository](https://github.com/SemvdH/CVML-MachineLearning/blob/main/exercises/Jupyter%20notebook%20CVML.ipynb) gezet. Hier staat het notebook in het mapje _exercises -> Jupyter notebook CVML_. De benodigde bestanden zijn op die repository te vinden in het [data mapje](https://github.com/SemvdH/CVML-MachineLearning/tree/main/data)."
]
},
{
@@ -2376,7 +2377,8 @@
"\n",
"we gebruiken de rmsprop optimizer omdat deze goed te gebruiken is voor kleine\n",
"batch sizes.\n",
"TODO loss uitleggen\n",
"We gebruiken de categorical crossentropy loss function omdat er sprake is van\n",
"meerdere categorieën.\n",
"\"\"\"\n",
"model.compile(loss='categorical_crossentropy',\n",
" optimizer='rmsprop',\n",
@@ -2633,6 +2635,8 @@
"compile het model met de binary crossentropy loss function. Dit doen we omdat\n",
"we maar 2 verschillende klassen hebben.\n",
"We gebruiken rmsprop als optimizer omdat we een kleine batch size hebben.\n",
"We gebruiken de binary crossentropy loss function omdat we een binaire\n",
"klassificatie hebben.\n",
"Deze optimizer balanceert de step size zodat deze niet te groot of te klein \n",
"worden.\n",
"We gebruiken de accuracy als metric omdat we daarop willen trainen.\n",
@@ -2767,13 +2771,7 @@
"3/3 [==============================] - 1s 402ms/step - loss: 0.0020 - accuracy: 1.0000 - val_loss: 1.2960 - val_accuracy: 0.8000\n",
"Epoch 57/100\n",
"3/3 [==============================] - 1s 316ms/step - loss: 1.9244e-05 - accuracy: 1.0000 - val_loss: 1.3116 - val_accuracy: 0.8000\n",
"Epoch 58/100\n"
]
},
{
"name": "stdout",
"output_type": "stream",
"text": [
"Epoch 58/100\n",
"3/3 [==============================] - 1s 324ms/step - loss: 1.8088e-05 - accuracy: 1.0000 - val_loss: 1.3336 - val_accuracy: 0.8000\n",
"Epoch 59/100\n",
"3/3 [==============================] - 1s 319ms/step - loss: 3.6851e-05 - accuracy: 1.0000 - val_loss: 1.4207 - val_accuracy: 0.8000\n",
@@ -3290,8 +3288,16 @@
"metadata": {},
"source": [
"### Conclusie\n",
"We hebben het CNN getest en "
"We hebben het CNN getest en we kwamen op een resultaat van gemiddeld 1 fout per 20 foto's. Dit is dus een accuracy van 95%."
]
},
{
"cell_type": "code",
"execution_count": null,
"id": "89fbd197",
"metadata": {},
"outputs": [],
"source": []
}
],
"metadata": {