Então, eu estou lendo "Introdução ao Machine Learning" 2ª edição, por Bishop, et. todos. Na página 27 eles discutem a dimensão Vapnik-Chervonenkis, que é,
"O número máximo de pontos que podem ser destruídos por H [a classe de hipóteses] é chamado de dimensão Vapnik-Chervonenkis (VC) de H, é designado VC (H) e mede a capacidade de H."
Enquanto "quebra" indica uma hipótese para um conjunto de N pontos de dados, de modo que separa os exemplos positivos dos negativos. Nesse exemplo, diz-se que "H quebra N pontos".
Até agora, acho que entendo isso. No entanto, os autores me perdem com o seguinte:
"Por exemplo, quatro pontos em uma linha não podem ser quebrados por retângulos."
Deve haver algum conceito aqui. Não estou entendendo completamente, porque não consigo entender por que esse é o caso. Alguém pode me explicar isso?