Estou lendo o livro de Kevin Murphy: Machine Learning - uma perspectiva probabilística. No primeiro capítulo, o autor está explicando a maldição da dimensionalidade e há uma parte que eu não entendo. Como exemplo, o autor declara:
Considere que as entradas são distribuídas uniformemente ao longo de um cubo de unidade D-dimensional. Suponha que estimamos a densidade dos rótulos de classe aumentando um hipercubo em torno de x até que ele contenha a fração desejada dos pontos de dados. O comprimento esperado da aresta deste cubo é .
É a última fórmula que eu não consigo entender. parece que, se você deseja cobrir, digamos 10% dos pontos, o comprimento da borda deve ser 0,1 ao longo de cada dimensão? Sei que meu raciocínio está errado, mas não consigo entender o porquê.