Não estudo estatísticas há mais de 10 anos (e depois apenas um curso básico), então talvez minha pergunta seja um pouco difícil de entender.
Enfim, o que eu quero fazer é reduzir o número de pontos de dados em uma série. O eixo x é o número de milissegundos desde o início da medição e o eixo y é a leitura desse ponto.
Muitas vezes, existem milhares de pontos de dados, mas talvez eu precise apenas de algumas centenas. Portanto, minha pergunta é: como reduzo com precisão o número de pontos de dados?
Como é chamado o processo? (Para que eu possa pesquisá-lo no Google) Existem algoritmos preferidos (eu o implementarei em C #)
Espero que você tenha algumas pistas. Desculpe pela minha falta de terminologia adequada.
Edit: Mais detalhes vêm aqui:
Os dados brutos que obtive são dados da frequência cardíaca e na forma de número de milissegundos desde a última batida. Antes de plotar os dados, calculo o número de milissegundos da primeira amostra e o bpm (batimentos por minuto) em cada ponto de dados (60000 / vezes na batida anterior).
Eu quero visualizar os dados, ou seja, plotá-los em um gráfico de linhas. Eu quero reduzir o número de pontos no gráfico de milhares para algumas centenas.
Uma opção seria calcular a média de bpm para cada segundo da série, ou talvez a cada 5 segundos. Isso teria sido bem fácil se eu soubesse que teria pelo menos uma amostra para cada um desses períodos (segundos de intervalos de 5 segundos).