Je travaille actuellement sur ce bon tutoriel sur la création d’un classifieur d’images à l’aide de Keras. Une fois le modèle formé, je l’enregistre dans un fichier, puis je le recharge dans un modèle à l’aide du script de test présenté ci-dessous.
L'exception suivante apparaît lorsque j'évalue le modèle à l'aide d'une nouvelle image inédite:
Erreur:
Traceback (most recent call last):
File "test_classifier.py", line 48, in <module>
score = model.evaluate(x, y, batch_size=16)
File "/Library/Python/2.7/site-packages/keras/models.py", line 655, in evaluate
sample_weight=sample_weight)
File "/Library/Python/2.7/site-packages/keras/engine/training.py", line 1131, in evaluate
batch_size=batch_size)
File "/Library/Python/2.7/site-packages/keras/engine/training.py", line 959, in _standardize_user_data
exception_prefix='model input')
File "/Library/Python/2.7/site-packages/keras/engine/training.py", line 108, in standardize_input_data
str(array.shape))
Exception: Error when checking model input: expected convolution2d_input_1 to have shape (None, 3, 150, 150) but got array with shape (1, 3, 150, 198)`
Le problème vient-il du modèle que j'ai formé ou de la manière dont j'appelle la méthode d'évaluation?
Code:
from keras.preprocessing.image import ImageDataGenerator
from keras.models import Sequential
from keras.layers import Convolution2D, MaxPooling2D
from keras.layers import Activation, Dropout, Flatten, Dense
from keras.preprocessing.image import ImageDataGenerator, array_to_img, img_to_array, load_img
import numpy as np
img_width, img_height = 150, 150
train_data_dir = 'data/train'
validation_data_dir = 'data/validation'
nb_train_samples = 2000
nb_validation_samples = 800
nb_Epoch = 5
model = Sequential()
model.add(Convolution2D(32, 3, 3, input_shape=(3, img_width, img_height)))
model.add(Activation('relu'))
model.add(MaxPooling2D(pool_size=(2, 2)))
model.add(Convolution2D(32, 3, 3))
model.add(Activation('relu'))
model.add(MaxPooling2D(pool_size=(2, 2)))
model.add(Convolution2D(64, 3, 3))
model.add(Activation('relu'))
model.add(MaxPooling2D(pool_size=(2, 2)))
model.add(Flatten())
model.add(Dense(64))
model.add(Activation('relu'))
model.add(Dropout(0.5))
model.add(Dense(1))
model.add(Activation('sigmoid'))
model.compile(loss='binary_crossentropy',
optimizer='rmsprop',
metrics=['accuracy'])
model.load_weights('first_try.h5')
img = load_img('data/test2/ferrari.jpeg')
x = img_to_array(img) # this is a Numpy array with shape (3, 150, 150)
x = x.reshape( (1,) + x.shape ) # this is a Numpy array with shape (1, 3, 150, 150)
y = np.array([0])
score = model.evaluate(x, y, batch_size=16)`
Le problème était double:
L'image test était de taille incorrecte. C'était 150 x 198, et devait être 150 x 150.
Je devais changer la couche dense de model.add(Dense(10))
à model.add(Dense(1))
.
Je ne comprends pas encore comment faire en sorte que le modèle me donne la prévision, mais au moins maintenant, l'évaluation du modèle s'exécute.
Le problème est dû à une taille incorrecte des images de test. Pour moi,
train_datagen.flow_from_directory(
'C:\\Users\\...\\train', # this is the target directory
target_size=(150, 150), # all images will be resized to 150x150
batch_size=32,
class_mode='binary')
ne fonctionnait pas correctement. J'ai donc utilisé une commande matlab
pour redimensionner toutes les images test et cela a bien fonctionné
J'ai le même problème et j'utilise cette fonction: Toutes les images du dossier cible (.jpg et .png) seront redimensionnées en hauteur et en largeur. Et divisé par 255. Plus 1 dimension supplémentaire (forme d’entrée requise) ajoutée.
from scipy import misc
import os
def readImagesAsNumpyArrays(targetPath, i_height, i_width):
files = os.listdir(targetPath)
npList = list()
for file in files:
if ".jpg" or ".png" in str(file):
path = os.path.join(targetPath, file)
img = misc.imread(path)
img = misc.imresize(img, (i_height, i_width))
img = img * (1. / 255)
img = img[None, :, :,: ]
npList.append(img)
return npList