Como carregar um modelo de um arquivo HDF5 no Keras?


94

Como carregar um modelo de um arquivo HDF5 no Keras?

O que eu tentei:

model = Sequential()

model.add(Dense(64, input_dim=14, init='uniform'))
model.add(LeakyReLU(alpha=0.3))
model.add(BatchNormalization(epsilon=1e-06, mode=0, momentum=0.9, weights=None))
model.add(Dropout(0.5))

model.add(Dense(64, init='uniform'))
model.add(LeakyReLU(alpha=0.3))
model.add(BatchNormalization(epsilon=1e-06, mode=0, momentum=0.9, weights=None))
model.add(Dropout(0.5))

model.add(Dense(2, init='uniform'))
model.add(Activation('softmax'))


sgd = SGD(lr=0.1, decay=1e-6, momentum=0.9, nesterov=True)
model.compile(loss='binary_crossentropy', optimizer=sgd)

checkpointer = ModelCheckpoint(filepath="/weights.hdf5", verbose=1, save_best_only=True)
model.fit(X_train, y_train, nb_epoch=20, batch_size=16, show_accuracy=True, validation_split=0.2, verbose = 2, callbacks=[checkpointer])

O código acima salva com sucesso o melhor modelo em um arquivo denominado weight.hdf5. O que eu quero fazer é carregar esse modelo. O código a seguir mostra como tentei fazer isso:

model2 = Sequential()
model2.load_weights("/Users/Desktop/SquareSpace/weights.hdf5")

Este é o erro que recebo:

IndexError                                Traceback (most recent call last)
<ipython-input-101-ec968f9e95c5> in <module>()
      1 model2 = Sequential()
----> 2 model2.load_weights("/Users/Desktop/SquareSpace/weights.hdf5")

/Applications/anaconda/lib/python2.7/site-packages/keras/models.pyc in load_weights(self, filepath)
    582             g = f['layer_{}'.format(k)]
    583             weights = [g['param_{}'.format(p)] for p in range(g.attrs['nb_params'])]
--> 584             self.layers[k].set_weights(weights)
    585         f.close()
    586 

IndexError: list index out of range

Respostas:


84

load_weightsapenas define os pesos de sua rede. Você ainda precisa definir sua arquitetura antes de chamar load_weights:

def create_model():
   model = Sequential()
   model.add(Dense(64, input_dim=14, init='uniform'))
   model.add(LeakyReLU(alpha=0.3))
   model.add(BatchNormalization(epsilon=1e-06, mode=0, momentum=0.9, weights=None))
   model.add(Dropout(0.5)) 
   model.add(Dense(64, init='uniform'))
   model.add(LeakyReLU(alpha=0.3))
   model.add(BatchNormalization(epsilon=1e-06, mode=0, momentum=0.9, weights=None))
   model.add(Dropout(0.5))
   model.add(Dense(2, init='uniform'))
   model.add(Activation('softmax'))
   return model

def train():
   model = create_model()
   sgd = SGD(lr=0.1, decay=1e-6, momentum=0.9, nesterov=True)
   model.compile(loss='binary_crossentropy', optimizer=sgd)

   checkpointer = ModelCheckpoint(filepath="/tmp/weights.hdf5", verbose=1, save_best_only=True)
   model.fit(X_train, y_train, nb_epoch=20, batch_size=16, show_accuracy=True, validation_split=0.2, verbose=2, callbacks=[checkpointer])

def load_trained_model(weights_path):
   model = create_model()
   model.load_weights(weights_path)

37
Se você deseja carregar o modelo COMPLETO, não apenas os pesos: from keras.models import load_modelentãomodel = load_model('model.h5')
cgnorthcutt

1
@mikael, você pode me dar uma dica com este post SO? stackoverflow.com/questions/55050339/…
HenryHub

211

Se você armazenou o modelo completo, não apenas os pesos, no arquivo HDF5, então é tão simples quanto

from keras.models import load_model
model = load_model('model.h5')

um modelo inclui os dados de treinamento reais também ao calcular a pegada de memória do modelo? Como você poderia carregar um modelo maior do que a memória disponível?
user798719

Um modelo NÃO inclui (explicitamente) os dados de treinamento. Você não pode carregar um modelo maior do que sua memória disponível (bem, ok, é possível, mas isso será muito difícil e você precisará passar por isso sozinho ... mas se o seu modelo for muito grande para carregá-lo deve (a) obter mais memória ou (b) treinar um modelo menor)
Martin Thoma

@MartinThoma Estou usando o método sugerido por você. Estou tentando tirar uma camada do modelo carregado e ver seus pesos: encoder = autoencoder.layers[0] encoder.get_weights() Mas estou conseguindo: FailedPreconditionError: Attempting to use uninitialized value lstm_1/kernel
shubhamsingh

1
Agradeço o elogio :-) Para fazer um ponto para a resposta aceita: Posso imaginar que armazenar apenas os pesos é mais robusto. Se keras mudar, os pesos ainda podem ser importados, enquanto o item completo não pode ser importado. Por outro lado, pode-se instalar uma versão antiga, jogar fora os pesos e fazer o mesmo de antes.
Martin Thoma de

@ pr338 Considere atualizar sua resposta aceita.
Kris

28

Veja o código de exemplo a seguir sobre como construir um modelo básico de rede neural Keras, salvar o modelo (JSON) e pesos (HDF5) e carregá-los:

# create model
model = Sequential()
model.add(Dense(X.shape[1], input_dim=X.shape[1], activation='relu')) #Input Layer
model.add(Dense(X.shape[1], activation='relu')) #Hidden Layer
model.add(Dense(output_dim, activation='softmax')) #Output Layer

# Compile & Fit model
model.compile(loss='binary_crossentropy', optimizer='adam', metrics=['accuracy'])
model.fit(X,Y,nb_epoch=5,batch_size=100,verbose=1)    

# serialize model to JSON
model_json = model.to_json()
with open("Data/model.json", "w") as json_file:
    json_file.write(simplejson.dumps(simplejson.loads(model_json), indent=4))

# serialize weights to HDF5
model.save_weights("Data/model.h5")
print("Saved model to disk")

# load json and create model
json_file = open('Data/model.json', 'r')
loaded_model_json = json_file.read()
json_file.close()
loaded_model = model_from_json(loaded_model_json)

# load weights into new model
loaded_model.load_weights("Data/model.h5")
print("Loaded model from disk")

# evaluate loaded model on test data 
# Define X_test & Y_test data first
loaded_model.compile(loss='binary_crossentropy', optimizer='adam', metrics=['accuracy'])
score = loaded_model.evaluate(X_test, Y_test, verbose=0)
print ("%s: %.2f%%" % (loaded_model.metrics_names[1], score[1]*100))

1
Isso funcionou para mim ao carregar um modelo de json e h5. Certifique-se de usar o exemplo de @InheritedGeek você se lembra do model.compile (). É necessário antes de chamar model.evaluate. Ótimo exemplo, obrigado!
CodeGuyRoss

6

De acordo com a documentação oficial https://keras.io/getting-started/faq/#how-can-i-install-hdf5-or-h5py-to-save-my-models-in-keras

você pode fazer :

primeiro teste se você tem o h5py instalado executando o

import h5py

se você não tiver erros ao importar o h5py, você pode salvar:

from keras.models import load_model

model.save('my_model.h5')  # creates a HDF5 file 'my_model.h5'
del model  # deletes the existing model

# returns a compiled model
# identical to the previous one
model = load_model('my_model.h5')

Se você precisar instalar o h5py http://docs.h5py.org/en/latest/build.html


3
Isso não parece funcionar no Keras 2.2.4 com h5py 2.9.0. Recebo o seguinte erro: Anaconda3 \ envs \ sintético \ lib \ site-packages \ keras \ utils \ io_utils.py ", linha 302, em getitem raise ValueError ('Não é possível criar grupo em modo somente leitura.')
csteel

0

Eu fiz desta forma

from keras.models import Sequential
from keras_contrib.losses import import crf_loss
from keras_contrib.metrics import crf_viterbi_accuracy

# To save model
model.save('my_model_01.hdf5')

# To load the model
custom_objects={'CRF': CRF,'crf_loss': crf_loss,'crf_viterbi_accuracy':crf_viterbi_accuracy}

# To load a persisted model that uses the CRF layer 
model1 = load_model("/home/abc/my_model_01.hdf5", custom_objects = custom_objects)

não há model.save (). Existe apenas model.model.save (). E carregar este modelo de volta e usá-lo da maneira original do modelo criado leva a erros. O objeto carregado é <keras.engine.sequential.Sequential, enquanto o que criamos é keras.wrappers.scikit_learn.KerasRegressor. Como posso mudá-lo?
areia de


Eu tenho um 404 naquele link
areia


@TRINADH NAGUBADI, Atualize o link por favor, a página não existe mais.
Catalina Chircu
Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.