Eu sei que R não é particularmente útil para analisar grandes conjuntos de dados, uma vez que R carrega todos os dados na memória, enquanto algo como o SAS faz análise sequencial. Dito isto, existem pacotes como o bigmemory que permitem aos usuários realizar análises de grandes dados (análise estatística) com mais eficiência no R.
Eu queria saber, além de todas as informações teóricas, alguém usou / está usando R para analisar grandes conjuntos de dados em um ambiente corporativo e quais são os problemas típicos que podem surgir. Por conjuntos de dados grandes, estou me referindo a conjuntos de dados com tamanho de ~ 200 GB. Além disso, qualquer reflexão sobre exemplos reais da migração do SAS para o R nesses casos de uso seria útil.
ff
e bigmemory
. @Glen_b, você acha que o novo R (com uma máquina de 64 bits) rivalizará com o SAS (em termos de tamanho possível dos conjuntos de dados)?