Conceitos de Underfitting e Overfitting
Em linhas gerais, quando o resultado de um treinamento de programação nos mostra que o modelo aprendeu menos do que esperávamos, dizemos que temos Underfitting. Quando o modelo aprende demais, fazendo com que o resultado do treinamento se pareça mais com uma memorização do que com um aprendizado, dizemos que temos Overfitting.
Neste artigo vamos analisar os dois casos, como o exemplo no gráfico abaixo, que ilustra um dataset semelhante aos conceitos que estamos tratando.

Underfitting
O underfitting ocorre quando o modelo não consegue aprender as relações mais importantes entre as classes, ou seja, fica abaixo do esperado:

Ao observar o gráfico acima, podemos notar que o resultado do treino não apresentou uma boa relação entre os dados.
Overfitting
Por outro lado, o overfitting ocorre quando o modelo faz uma super relação entre os dados, veja o exemplo:

Podemos dizer que aqui, ao invés de aprender, o modelo memorizou as relações entre os dados. Portanto, ao tentar efetuar uma predição, o modelo não será eficaz, pois estará preso às regras que aprendeu durante o treinamento, o que resultou no overfitting.
Conclusão
Quando estamos trabalhando no desenvolvimento de um modelo de rede neural artificial, é importante ter em mente os conceitos de Underfitting e Overfitting e, desse modo, tentar achar o equilíbrio, e claro, neste processo, o entendimento técnico sobre a IA também é importante. Usar a experimentação empírica, através da jornada até o modelo ideal, pode contribuir de forma significativa no processo.
Diante do exposto, um resultado próximo do ideal seria um modelo que consegue aprender as relações entre as classes de maneira equânime, sem universalizar os dados e sem estar muito distante da relação que existe entre os dados. Vamos ver abaixo graficamente um resultado que seria considerado um bom modelo.

Referências
Overfitting and Underfitting With Machine Learning Algorithms