binning dados em python com scipy / numpy


108

existe uma maneira mais eficiente de obter uma média de uma matriz em caixas pré-especificadas? por exemplo, eu tenho uma matriz de números e uma matriz correspondente às posições inicial e final do compartimento nessa matriz, e quero apenas obter a média nesses compartimentos. Eu tenho o código que faz isso abaixo, mas estou me perguntando como ele pode ser reduzido e melhorado. obrigado.

from scipy import *
from numpy import *

def get_bin_mean(a, b_start, b_end):
    ind_upper = nonzero(a >= b_start)[0]
    a_upper = a[ind_upper]
    a_range = a_upper[nonzero(a_upper < b_end)[0]]
    mean_val = mean(a_range)
    return mean_val


data = rand(100)
bins = linspace(0, 1, 10)
binned_data = []

n = 0
for n in range(0, len(bins)-1):
    b_start = bins[n]
    b_end = bins[n+1]
    binned_data.append(get_bin_mean(data, b_start, b_end))

print binned_data

Respostas:


181

Provavelmente é mais rápido e fácil de usar numpy.digitize():

import numpy
data = numpy.random.random(100)
bins = numpy.linspace(0, 1, 10)
digitized = numpy.digitize(data, bins)
bin_means = [data[digitized == i].mean() for i in range(1, len(bins))]

Uma alternativa para isso é usar numpy.histogram():

bin_means = (numpy.histogram(data, bins, weights=data)[0] /
             numpy.histogram(data, bins)[0])

Experimente você mesmo qual é o mais rápido ... :)


1
Não vejo diferença - o que é mais rápido?

4
@ usuário: Não sei qual é mais rápido para seus dados e parâmetros. Ambos os métodos devem ser mais rápidos que o seu, e eu espero que o histogram()método seja mais rápido para um grande número de caixas. Mas você terá que traçar seu perfil, não posso fazer isso por você.
Sven Marnach

39

A função Scipy (> = 0,11) scipy.stats.binned_statistic aborda especificamente a questão acima.

Para o mesmo exemplo das respostas anteriores, a solução Scipy seria

import numpy as np
from scipy.stats import binned_statistic

data = np.random.rand(100)
bin_means = binned_statistic(data, data, bins=10, range=(0, 1))[0]

16

Não sei por que este tópico foi necroado; mas aqui está uma resposta aprovada em 2014, que deve ser muito mais rápida:

import numpy as np

data = np.random.rand(100)
bins = 10
slices = np.linspace(0, 100, bins+1, True).astype(np.int)
counts = np.diff(slices)

mean = np.add.reduceat(data, slices[:-1]) / counts
print mean

3
você está respondendo a uma pergunta diferente. Por exemplo mean[0] = np.mean(data[0:10]), seu , embora a resposta certa deva sernp.mean(data[data < 10])
Ruggero Turra

5

O pacote numpy_indexed (isenção de responsabilidade: eu sou o autor) contém funcionalidades para executar com eficiência operações deste tipo:

import numpy_indexed as npi
print(npi.group_by(np.digitize(data, bins)).mean(data))

Esta é essencialmente a mesma solução que postei anteriormente; mas agora envolto em uma interface agradável, com testes e tudo :)


3

Eu acrescentaria, e também para responder à questão, encontre valores bin médios usando histogram2d python que o scipy também tem uma função especialmente projetada para calcular uma estatística binned bidimensional para um ou mais conjuntos de dados

import numpy as np
from scipy.stats import binned_statistic_2d

x = np.random.rand(100)
y = np.random.rand(100)
values = np.random.rand(100)
bin_means = binned_statistic_2d(x, y, values, bins=10).statistic

a função scipy.stats.binned_statistic_dd é uma generalização desta função para conjuntos de dados de dimensões superiores


1

Outra alternativa é usar o ufunc.at. Este método aplica no local uma operação desejada em índices especificados. Podemos obter a posição bin para cada ponto de dados usando o método searchsorted. Então podemos usar at para incrementar em 1 a posição do histograma no índice dado por bin_indexes, toda vez que encontrarmos um índice em bin_indexes.

np.random.seed(1)
data = np.random.random(100) * 100
bins = np.linspace(0, 100, 10)

histogram = np.zeros_like(bins)

bin_indexes = np.searchsorted(bins, data)
np.add.at(histogram, bin_indexes, 1)
Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.