3 - Inteligência Artificial Aplicada a Física
Professor(es):

Resumo:
O objetivo é fornecer ao aluno uma base prática nos conceitos e técnicas de aprendizado profundo (Deep Learning), além de abordar os principais métodos de IA aplicados nas áreas de Física, Astronomia e Geociências. Essa formação incluirá o estudo de redes neurais, algoritmos de aprendizado supervisionado e não supervisionado, e a aplicação de ferramentas computacionais avançadas para resolver problemas específicos dessas disciplinas científicas.
Ementa
- Introdução à Python e bibliotecas de manipulação de dados (PANDAS)
- Introdução ao aprendizado de máquina
- Algoritmo de retropropagação. Redes Perceptron de várias camadas
- Análise de dados não estruturados, pré-processamento
- Redes Neurais Convolucionais
- Redes Generativas e Unets
- Redes Recorrentes
- Redes Transformers e LLMs
- Modelos Difusivos
- Deep Learning para solução de Equações Diferenciais
- Modelagem inversa com Simulation based-inference (SBI)
- Exemplos de aplicações nas áreas de atuação do grupo: Astrofísica, Óleo e Gás e Visão Computacional
- Ética e potenciais impactos na sociedade da Inteligência Artificial
Pré-Requisitos:
Sem pré requisitosBibliografia:
- Numerical Recipes: the Art of Scientific Computing, Press, Teukolsky, Vetterling e Flannery, 2007 (3a. edição)
- Data Analysis: a Bayesian Tutorial, Sivia & Skilling, 2006
- Statistics, Data Mining, and Machine Learning in Astronomy, Ivezić, Connolly, VanderPlas & Gray, 2014
- Goodfellow, Ian, Yoshua Bengio, and Aaron Courville. Deep learning. MIT press, 2016.
- Chollet, Francois. Deep learning with Python. Simon and Schuster, 2017.
- Vaswani, Ashish; Shazeer, Noam; Parmar, Niki; Uszkoreit, Jakob; Jones, Llion; Gomez, Aidan N.; Kaiser, Lukasz; Polosukhin, Illia (2017-06-12). "Attention Is All You Need"
- Y. LeCun, L. Bottou, Y. Bengio, and P. Haffner. Gradient‐based learning applied to document recognition. Proceedings of the IEEE, november 1998.
- Emtiyaz Khan, Mohammad; Nielsen, Didrik; Tangkaratt, Voot; Lin, Wu; Gal, Yarin; Srivastava, Akash. Fast and Scalable Bayesian Deep Learning by Weight-Perturbation in Adam, 2018 arXiv:1806.04854
- LeCun, Yann, Yoshua Bengio, and Geoffrey Hinton. "Deep learning." nature 521.7553 (2015): 436.
- Cobb, Adam D.; Roberts, Stephen J.; Gal, Yarin, Loss-Calibrated Approximate Inference in Bayesian Neural Networks, 2018 arXiv:1805.03901.
- Shelhamer E, Long J, Darrell T (April 2017). "Fully Convolutional Networks for Semantic Segmentation". IEEE Transactions on Pattern Analysis and Machine Intelligence. 39 (4): 640–651.
- Krizhevsky, A., Sutskever, I. and Hinton, G. E. ImageNet Classification with Deep Convolutional Neural Networks. NIPS 2012: Neural Information Processing Systems, Lake Tahoe, Nevada
- Hinton, G. E. and Salakhutdinov, R. R. Reducing the dimensionality of data with neural networks. Science 2006.
- H. Lee, A. Battle, R. Raina, and A. Y. Ng. Efficient sparse coding algorithms. NIPS, 2007.
- H. Larochelle, D. Erhan, A. Courville, J. Bergstra, and Y. Bengio. An Empirical Evaluation of Deep Architectures on Problems with Many Factors of Variation. ICML 2007.
- Ian J. Goodfellow, Quoc V. Le, Andrew M. Saxe, Honglak Lee and Andrew Y. Ng. Measuring invariances in deep networks. NIPS 2009.
- Christian Szegedy, Wei Liu, Yangqing Jia, Pierre Sermanet, Scott Reed, Dragomir Anguelov, Dumitru Erhan, Vincent Vanhoucke, Andrew Rabinovich: Going deeper with convolutions. CVPR 2015: 1‐9
- R. Raina, A. Battle, H. Lee, B. Packer, and A. Y. Ng. Self‐taught learning: Transfer learning from unlabeled data. ICML, 2007.
- H. Lee, R. Raina, A. Teichman, and A. Y. Ng. Exponential Family Sparse Coding with Application to Self‐taught Learning. IJCAI, 2009