Na inteligência artificial (às vezes chamada inteligência de máquina ou inteligência computacional ), existem vários problemas baseados em tópicos matemáticos, especialmente otimização, estatística, teoria das probabilidades, cálculo e álgebra linear.
Marcus Hutter trabalhou em uma teoria matemática para inteligência geral artificial , chamada AIXI , que é baseada em vários conceitos de ciências matemáticas e de computação, como aprendizado por reforço, teoria das probabilidades (por exemplo, teorema de Bayes e tópicos relacionados) , teoria das medidas , teoria da informação algorítmica (por exemplo, Complexidade de Kolmogorov), otimização, indução de Salomonoff , pesquisa universal de Levin e teoria da computação (por exemplo, máquinas de Turing universais). Seu livro Inteligência Artificial Universal: Decisões Sequenciais Baseadas em Probabilidade Algorítmica, que é um livro altamente técnico e matemático, descreve sua teoria dos melhores agentes de aprendizado Bayesiano não-Markov.
Há também o campo de pesquisa chamado teoria do aprendizado computacional , que é dedicado ao estudo do design e análise de algoritmos de aprendizado de máquina. Mais precisamente, o campo se concentra no estudo rigoroso e na análise matemática de algoritmos de aprendizado de máquina usando técnicas de campos como teoria das probabilidades, estatística, otimização, teoria da informação e geometria. Várias pessoas já trabalharam na teoria do aprendizado computacional, incluindo Michael Kearns e Vladimir Vapnik . Há também um campo relacionado chamado teoria da aprendizagem estatística .
Também há muito esforço de pesquisa dedicado a aproximações (heurísticas) da otimização combinatória e problemas completos de NP , como a otimização de colônias de formigas .
Há também algum trabalho sobre a completude da IA , mas isso não recebeu muita atenção (em comparação com as outras áreas de pesquisa mencionadas acima).