O que estou tentando fazer:
Estou tentando classificar algumas imagens usando recursos locais e globais.
O que eu fiz até agora:
Eu extraí descritores de peneiração para cada imagem e estou usando isso como minha entrada para k-means para criar meu vocabulário a partir de todos os recursos de cada imagem. A partir daqui, crio um histograma a partir de meus clusters para cada imagem, passando os recursos de seleção de imagens para o método de previsão em k-means, fornecendo os rótulos dos clusters. A partir daqui, crio o histograma contando o número de etiquetas para cada bandeja. Agora eu tenho uma matriz nxm onde n é o número de imagens e estou sendo o número de clusters (recursos / palavras) de cada imagem.
Vou alimentar essa matriz com um classificador para obter minhas classificações de imagem.
Etapas em poucas palavras:
Extraia descritores de recursos de peneiração, fornecendo uma matriz nx128 para cada imagem
Empilhe todos os descritores de recursos em uma lista grande
Ajuste todos esses recursos à configuração do algoritmo kmeans k = 100
Para cada imagem, use seus recursos de peneiração para prever os rótulos dos clusters usando o mesmo modelo kmeans treinado
Crie um histograma a partir dos clusters usando k como o número de posições, adicionando 1 à bandeja para cada etiqueta no modelo. (se uma imagem tiver 10 recursos do sift, ela fornecerá 10 rótulos, esses 10 rótulos estarão no intervalo de k; portanto, para cada rótulo, a adicionaremos à lixeira correspondente do histograma).
Agora temos uma matriz nxk, em que n é o número de imagens ek é o número de clusters.
Agora, alimentamos os histogramas para um classificador e pedimos que ele preveja os dados do teste.
O problema:
Estou executando corretamente um conjunto de palavras visuais?
Aqui está o meu código:
def extract_features(df):
IF = imageFeatures()
global_features = []
sift_features = []
labels = []
for i, (index, sample) in enumerate(df.iterrows()):
image = cv2.imread(sample["location"])
image = cv2.resize(image, shape)
hist = IF.fd_histogram(image)
haralick = IF.fd_haralick(image)
hu = IF.fd_hu_moments(image)
lbp = IF.LocalBinaryPatterns(image, 24, 8)
kp, des = IF.SIFT(image)
if len(kp) == 0:
#print (i)
#print (index)
#print (sample)
#return 0
des = np.zeros(128)
sift_features.append(des)
global_feature = np.hstack([hist, haralick, hu, lbp])
global_features.append(global_feature)
labels.append(sample["class_id"])
scaler = MinMaxScaler(feature_range=(0, 1))
rescaled = scaler.fit_transform(global_features)
return sift_features, rescaled, labels
def BOVW(feature_descriptors, n_clusters = 100):
print("Bag of visual words with {} clusters".format(n_clusters))
#take all features and put it into a giant list
combined_features = np.vstack(np.array(feature_descriptors))
#train kmeans on giant list
print("Starting K-means training")
kmeans = MiniBatchKMeans(n_clusters=n_clusters, random_state=0).fit(combined_features)
print("Finished K-means training, moving on to prediction")
bovw_vector = np.zeros([len(feature_descriptors), n_clusters])#number of images x number of clusters. initiate matrix of histograms
for index, features in enumerate(feature_descriptors):#sift descriptors in each image
try:
for i in kmeans.predict(features):#get label for each centroid
bovw_vector[index, i] += 1#create individual histogram vector
except:
pass
return bovw_vector#this should be our histogram
if __name__ == '__main__':
n_clusters = 100
#set model
model = GaussianNB()
image_list = pd.read_csv("image_list.csv")
image_list_subset = image_list.groupby('class_id').head(80)#image_list.loc[(image_list["class_id"] == 0) | (image_list["class_id"] == 19)]
shape = (330,230)
train, test = train_test_split(image_list_subset, test_size=0.1, random_state=42)
train_sift_features, train_global_features, y_train = extract_features(train)
train_histogram = BOVW(train_sift_features, n_clusters)
import matplotlib.pyplot as plt
plt.plot(train_histogram[100], 'o')
plt.ylabel('frequency');
plt.xlabel('features');
test_sift_features, test_global_features, y_test = extract_features(test)
test_histogram = BOVW(test_sift_features, n_clusters)
'''Naive Bays'''
y_hat = model.fit(train_histogram, y_train).predict(test_histogram)
print("Number of correctly labeled points out of a total {} points : {}. An accuracy of {}"
.format(len(y_hat), sum(np.equal(y_hat,np.array(y_test))),
sum(np.equal(y_hat,np.array(y_test)))/len(y_hat)))
BOVW
função, para fins de teste?