Não existe uma convenção universalmente seguida sobre o que é uma "margem de erro", mas acho que (como você observou) é mais frequentemente usada como significando o raio de um intervalo de confiança , na escala original da estimativa ou como porcentagem de uma estimativa. Às vezes, é usado como sinônimo do "erro padrão"; portanto, você precisa ter cuidado para que outras pessoas entendam o que você quer dizer quando o usa.
A "intervalo de confiança" não têm convenção universal sobre o seu significado. É basicamente o intervalo de estimativas possíveis geradas por um processo de estimativa que, X% do tempo (95% é o mais comumente usado) conteria o valor real do parâmetro que está sendo estimado. Esse conceito de "processo" que produziria o valor verdadeiro X% do tempo é um pouco contra-intuitivo e não deve ser confundido com um "intervalo de credibilidade" da inferência bayesiana, que tem uma definição muito mais intuitiva, mas é não é a mesma coisa que o intervalo de confiança amplamente utilizado.
Sua cotação real é um pouco confusa e precisa de algumas correções menores, conforme descrito. Eu evitaria esse uso adicional da palavra "margem" e favoreceria "barras de erro". Assim:
"Os intervalos de confiança são estimados em 1,96 multiplicados pelos erros padrão relevantes e mostrados nos gráficos como barras de erro."
(Isso deixa de lado a questão de saber se essa é uma boa maneira de calcular intervalos de confiança, que depende do seu modelo etc. e não é relevante).
Comentário final sobre terminologia - não gosto de "erro padrão", que significa apenas "o desvio padrão da estimativa"; ou "erro de amostragem" em geral - prefiro pensar em termos de aleatoriedade e variação das estatísticas, em vez de "erros". Mas passei a usar o termo "erro padrão" acima porque acho que é tão amplamente usado.