Imagem do módulo
Resumo:

O objetivo é fornecer ao aluno uma base prática nos conceitos e técnicas de aprendizado profundo (Deep Learning), além de abordar os principais métodos de IA aplicados nas áreas de Física, Astronomia e Geociências. Essa formação incluirá o estudo de redes neurais, algoritmos de aprendizado supervisionado e não supervisionado, e a aplicação de ferramentas computacionais avançadas para resolver problemas específicos dessas disciplinas científicas.

Ementa
  • Introdução à Python e bibliotecas de manipulação de dados (PANDAS)
  • Introdução ao aprendizado de máquina
  • Algoritmo de retropropagação. Redes Perceptron de várias camadas
  • Análise de dados não estruturados, pré-processamento
  • Redes Neurais Convolucionais
  • Redes Generativas e Unets
  • Redes Recorrentes
  • Redes Transformers e LLMs
  • Modelos Difusivos
  • Deep Learning para solução de Equações Diferenciais
  • Modelagem inversa com Simulation based-inference (SBI)
  • Exemplos de aplicações nas áreas de atuação do grupo: Astrofísica, Óleo e Gás e Visão Computacional
  • Ética e potenciais impactos na sociedade da Inteligência Artificial
Pré-Requisitos:
Sem pré requisitos
Bibliografia:
  • Numerical Recipes: the Art of Scientific Computing, Press, Teukolsky, Vetterling e Flannery, 2007 (3a. edição)
  • Data Analysis: a Bayesian Tutorial, Sivia & Skilling, 2006
  • Statistics, Data Mining, and Machine Learning in Astronomy, Ivezić, Connolly, VanderPlas & Gray, 2014
  • Goodfellow, Ian, Yoshua Bengio, and Aaron Courville. Deep learning. MIT press, 2016.
  • Chollet, Francois. Deep learning with Python. Simon and Schuster, 2017.
  • Vaswani, Ashish; Shazeer, Noam; Parmar, Niki; Uszkoreit, Jakob; Jones, Llion; Gomez, Aidan N.; Kaiser, Lukasz; Polosukhin, Illia (2017-06-12). "Attention Is All You Need"
  • Y. LeCun, L. Bottou, Y. Bengio, and P. Haffner. Gradient‐based learning applied to document recognition. Proceedings of the IEEE, november 1998.
  • Emtiyaz Khan, Mohammad; Nielsen, Didrik; Tangkaratt, Voot; Lin, Wu; Gal, Yarin; Srivastava, Akash. Fast and Scalable Bayesian Deep Learning by Weight-Perturbation in Adam, 2018 arXiv:1806.04854
  • LeCun, Yann, Yoshua Bengio, and Geoffrey Hinton. "Deep learning." nature 521.7553 (2015): 436.
  • Cobb, Adam D.; Roberts, Stephen J.; Gal, Yarin, Loss-Calibrated Approximate Inference in Bayesian Neural Networks, 2018 arXiv:1805.03901.
  • Shelhamer E, Long J, Darrell T (April 2017). "Fully Convolutional Networks for Semantic Segmentation". IEEE Transactions on Pattern Analysis and Machine Intelligence. 39 (4): 640–651.
  • Krizhevsky, A., Sutskever, I. and Hinton, G. E. ImageNet Classification with Deep Convolutional Neural Networks. NIPS 2012: Neural Information Processing Systems, Lake Tahoe, Nevada
  • Hinton, G. E. and Salakhutdinov, R. R. Reducing the dimensionality of data with neural networks. Science 2006.
  • H. Lee, A. Battle, R. Raina, and A. Y. Ng. Efficient sparse coding algorithms. NIPS, 2007.
  • H. Larochelle, D. Erhan, A. Courville, J. Bergstra, and Y. Bengio. An Empirical Evaluation of Deep Architectures on Problems with Many Factors of Variation. ICML 2007.
  • Ian J. Goodfellow, Quoc V. Le, Andrew M. Saxe, Honglak Lee and Andrew Y. Ng. Measuring invariances in deep networks. NIPS 2009.
  • Christian Szegedy, Wei Liu, Yangqing Jia, Pierre Sermanet, Scott Reed, Dragomir Anguelov, Dumitru Erhan, Vincent Vanhoucke, Andrew Rabinovich: Going deeper with convolutions. CVPR 2015: 1‐9
  • R. Raina, A. Battle, H. Lee, B. Packer, and A. Y. Ng. Self‐taught learning: Transfer learning from unlabeled data. ICML, 2007.
  • H. Lee, R. Raina, A. Teichman, and A. Y. Ng. Exponential Family Sparse Coding with Application to Self‐taught Learning. IJCAI, 2009
Pitch de Apresentação

Saiba mais sobre o módulo assistindo ao vídeo de apresentação abaixo: