Prof. Adolfo Bauchspiess

Control and Automation
Electrical Engineering

e-Mail:
adolfobs AT ene unb br
 

Address:
ENE/FT/UnB Sala B1-34/18,

70919-970 Brasília-DF,Brazil


alvoradaMar2023
unb




LARA

Lab. de Automação e Robótica
Departamento de Engenharia Elétrica
Universidade de Brasília - UnB





Home Lectures Research Papers
Monographs (Grad./M.Sc./Ph.D.)

Controle de Sistemas Dinâmicos
Inteligência Computacional Automação Predial c/ IoT Identificação de Sistemas Dinâmicos Controle Digital Lab. Controle Dinâmico

                                                               

ENE0154 - Inteligência Computacional - 2025.2

Sala BT-16/15,
35T45 Ter-Qui 16:00- 17:50

lampRecomendações, para refletir:

YouTube Flow PodCast
4:40:54 Mentiram pra você sobre a inteligência artificial [com Fabio Akita]
YouTube Atila Iamarino   21:29


Metodologia Plano de Ensino
Ementa
Links de Interesse
Referências
Cronograma

e-mail assuntos IC: adolfobs AT ene unb br 

                                                         

Metodologia de Ensino

- A presente página ( http://www.ene.unb.br/adolfo/Lectures/IC.html) será utilizada para comunicações da disciplina.
- Aulas expositivas, demos. Slides de Aula: IntelComp-1:7
- Exercícios computacionais, Artigo → Teams IntelComp2025.2



Avaliação


    Atividades Individuais:

        - Ex1 a Ex4 Exercícios Computacionais em Python

      - P Prova, P: 13/2

    Atividades em Dupla (ou individual):

     - A Artigo: Apresentação (pptx/pdf), Texto(pdf), Arguição.
           Trabalho de pesquisa científica, comparando pelo menos 3 artigos publicados em conteúdo da disciplina
           em área de interesse dos alunos (e.g., PIBIC, TG/ TCC/PFC, estágio).

    Média = ∑(Ex1:Ex4) + 3*A + 3*P


Template a se utilizado para relatórios de Exercícios e para o Artigo Overleaf / Word.
(Escrever o essencial em coluna dupla, exige organização. Só uma boa compreensão/planejamento permite ser conciso!)


Transparências Utilizadas nas Aulas    

1-Connectionism 2-ANN 3-MachineLearning 4-Fuzzy 5-DeepLearning 6-LLM 7-UseCases

    Apostila_Introdução aos Sistemas Inteligentes (2008)


Exercícios Computacionais (Python)

  OCR   Ex1_OCR

  ADALINE   Ex2_ADALINE  

  Deep Learning

  Reinforcement-Learning

 extra: LLM - Llama

     tutorial_ex1_google_colab
(monitora Bianca Boueri, 2024.2)


Demos Apresentados em Sala

Pseudo-rising  scale
shepard.wav
Matlab  GUI
nndemom

Classificação Não-Linear
Demo1   Demo1 py_m

Classificação Diabetes
Demo2 py

MLP x RBF
 
Demo3 m py

Camada Comptetitiva
Demo4   m

LVQ 

Demo5  m

NARMA-L2
Demo6  slx

Adaptive Neuro-Fuzzy

pêndulo -Demo7 ANFIS


Provas anteriores
(Algumas provas, a título de ilustração)

rP2IC223  rP1ICIN218  rP2ICIN218  rP1ICIN 115  rP2ICIN115  rP1ICIN213  rP2ICIN213  rP1ICN212  rP2ICN212 



Links de Interesse


Slides de apresentações A. Bauchspiess


MACHINE LEARNING Environments
  - Google Colab - notebooks no google drive, não precisa instalar pacotes. (GPU, TPU etc disponíves → connection \/ Change runtime type)
  - Anaconda - interface amigável para criar e instalar ambientes python (mostra pacotes instalados/não instalados/atualizáveis relacionados)
 
- vscod
e - ambiente genérico bastante completo de desenvolvimento. C, esp32, python. Pacotes instalados via terminal.
                    Roda multiplas instâncias, múltiplas janelas -> prático para projetos maiores. GPU desejável.
  - Pacotes típicos parar IA:
Numpy, Matplotlib, SciPy sklearn, TensorFlow, Keras, PyTorch ...
  

DEMOS
 - 
https://colab.research.google.com/github/tensorflow/docs/blob/master/site/en/r2/tutorials/quickstart/beginner.ipynb#scrollTo=0trJmd6DjqBZ
 -
svm plot_digits_classification
 - k-means PCA digits 
 - visualizing-k-means-clustering
 - visualizations/kmeans/kmeans
 - ml-logistic-regression


TUTORIAIS

 - https://cs.uwaterloo.ca/~mli/Deep-Learning-2017-Lecture5CNN.ppt

 - Introduction to Deep Learning with Keras, by Jonathon Hare, Univ. of Southampton, 2017

 - Tutorial: Deep Reinforcement Learning, PDF by David Silver, Google DeepMind, 2016
 - Reinforcement Learning Tutorial - Peter Bod'ik, UC Berkeley, 2007

 - Deep Learning Tutorial - EE@IITM, Mitesh M. Khapra, IITM, Madras, 2017;    

           -> Lecture11_CS7015_DeepL_Khapra_Madras_in, 2023

 - How Deep Neural Networks Work, Video by Brandon Rohrer, Facebook, 2017
 - Efficient Processing of Deep Neural Networks: A Tutorial and Survey. Zse et al., csail.mit.edu, Proc. IEEE 2017
 - Recurrent Neural Networks, Nazli I. Cinbis, vision.cs.hacettepe.edu.tr, siu2016-tutorial
 
- Tutorial on Deep Learning, Bálint Daróczy, www.wire.tu-bs.de, 2017
 - Machine Learning - Logistic Regression, Jeff Howbert, courses.washington.edu, 2012





Plano de Ensino


Objetivo do Curso

A disciplina Inteligência Computacional tem como objetivo apresentar técnicas de projeto para a engenharia, Redes Neurais Artificiais, que se originaram de pesquisas na área de inteligência artificial. Aprendizado profundo e Aprendizado por reforço são os tópicos mais relevantes. A disciplina é acompanhada de exercícios em Python.

Motivação

Redes Neurais Artificiais:

Programas de computador podem emular a maneira como o cérebro resolve problemas: uma grande rede altamente interconectada de neurônios relativamente simples trabalhando em paralelo. Convencionou-se assim, chamar de Redes Neurais Artificiais toda estrutura de processamento paralelo que utiliza o conexionismo como paradigma. Talvez a característica mais importante das Redes Neurais Artificiais seja a sua capacidade de aprendizado, i.e., problemas complexos em engenharia podem ser resolvidos treinando-se a rede pela apresentação do padrão de comportamento desejado.
Vivemos atualmente, a assim chamada "3a onda" das RNAs.  1a onda, ~anos 1960 - perpectpron; 2a onda, ~anos 1990 - backpropagation; 3a onda, ~2010 - deep learning.

Lógica Fuzzy:

Seres humanos tomam decisões considerando não valores exatos, mas sim utilizando uma lógica que leva em conta um certo "grau de pertinência" das variáveis envolvidas no processo decisório. Não se liga, por exemplo, o ar condicionado em 27°C, às 957 h, e umidade relativa do ar em 77%, mas sim, quando está "quente", no "começo da manha" e quando o ar está "abafado". Estas variáveis lingüísticas podem ser melhor descritas e manipuladas num conjunto Fuzzy. A Lógica Fuzzy é assim, uma generalização da lógica clássica que permite incluir a imprecisão ("fuzziness") nos processos decisórios. Sistemas neuro-fuzzy combinam a representação especialista do conhecimento com apredizado neural.


Metodologia

Aulas expositivas acompanhadas de atividades computacionais. Exercícios individuais em Python ou MatLab e um trabalho de pesquisa, em dupla, (Artigo) visam fixar o conteúdo.

Ementa

            Introdução, Redes Neurais Artificiais, “Deep Learning”, Lógica Fuzzy, Computação Evolutiva, Aprendizado por Reforço, Experimentos Computacionais.

Programa

Introdução

Inteligência Computacional; Histórico; Problemas de Interesse: Classificação de Padrões, Regressão, Tomada de Decisão; Conceitos de Aprendizado.

Redes Neurais Artificiais

Modelos de neurônios artificiais; Arquitetura; Perceptron Multicamada; Redes de Funções Radiais de Base; Mapas Auto-Organizáveis.

“Deep Learning”

Treinamento em redes profundas: Entropia, “Dropout”, Unidades Softmax e LRU, Redes convolutivas.

Lógica Fuzzy

Conjuntos Fuzzy; Funções de Pertinência; Operações;  Inferência; Sistema Baseado em Regras Fuzzy; Controlador Fuzzy; Redes neuro-fuzzy.

Computação Evolutiva

Conceitos de Evolução e Genética; Algoritmos Genéticos; Definições; Operadores básicos (seleção, mutação, cross-over); Variantes.

Aprendizado por Reforço

Definições; Processos de Decisão de Markov; Programação dinâmica; Métodos Monte Carlo; SARSA; Q-Learning

 

Experimentos Computacionais

(adequar ao perfil da turma/docente)

Reconhecimento de padrões - MLP, CNN, DL

Aproximação de funções

Aprendizado por reforço

Processamento/controle Neural

Modelagem Fuzzy

Controle Fuzzy e Neuro-Fuzzy

Aplicação “Deep Learning”

                      Outros temas atuais.


Relatórios:

Os relatórios e o artigo deve ser o mais objetivo possível, porém conter todas as observações relevantes feitas durante a realização do experimento. Visando padronizar a correção, o seguinte formato de relatório é sugerido:Template Exercícios/Artigo Overleaf /Word.
Os relatórios devem ser enviados para adolfobs [at] ene.unb.br, identificando no "assunto" do e-mail e no nome do arquivo .zip anexado (relatório em pdf + códigos): IC_Exp<#Exp><nome_aluno>

A pontuação leva em conta os seguintes aspectos:
- todos os procedimentos foram seguidos (40%),
- os resultados são apresentados de forma e concisa e clara: gráficos, tabelas etc (30%),
- a intrepretação dos resultados é correta e reflete/abrange os objetivos do exercício (30%),
- pontualidade - o atraso será penalizado com 0,5 pontos por dia útil.

Bibliografia

  1. Silva, I.N.; Spatti, D. H.; Flauzino, R. A.: Redes Neurais Artificiais - para Engenharia e Ciências Aplicadas, Artliber, 2016
  2. Murphy, Kevin P.: Probabilistic Machine Learning: An Introduction, MIT Press, 2022
  3. Haykin, S.: Neural Networks and Learning Machines, (3rd Ed., Prentice Hall, 2009) 3rd Ed Pearson, 2016
       Obs: o curso ENE0154 - Inteligência Computacional, não segue, a rigor, nenhum dos livros indicados acima.
       O coluna Material Complemetar do Cronograma de Atividades, abaixo, apresenta a leitura indicada, por aula.


     Referências Complementares


  

Cronograma de Atividades 

P – Prova, AEi - Apresentação do Exercício i, EEj - data de Entrega do Exercício j

Data # Conteúdo Programático Material Complementar
19/8 1  Introdução, Plano de ensino
  - Conexionismo
  - Heurísicas
  - IA Simbólica
  - IA Subsimbólica
 IntelCompUnB-1-Connectionism.pdf p1-

  - Murphy Cap 1 - Introduction
  - Haykin - Introdução
  - Ivan Silva Cap 1 - Introdução
21/8
2 IA ~ Emular o cérebro humano
  - Fisiologia
→ Conexionismo
 
- Psicologia
→ Sistemas especialistas
  - O modelo "mais simples" → Paradoxos
      • Reconhecimento de Padrões
     
Aproximação de Funções
  - Rede de neurônios x Rede Neural
     
Sinapses
     
Plasticidade
 IntelCompUnB-1-Connectionism.pdf p1

  - Haykin Livro Cap1 - Learning Processes
  - Ivan Silva Cap 2 - Arquiteturas de redes neurais artificiais e
  processos de treinamento
26/9 3  Engenharia do Conhecimento
  - RNA, Fuzzy, AG, IA
  - Conjectura de Gödel
  - AG ex. Mastermind
  - Aproximadores Universais
 IntelCompUnB-1-Connectionism.pdf  p26-

28/8

4
 Fundamentos Biológicos
  - Fluxo unidirecional da informação
  - Neurotransmissores
  - Integração espaço/temporal
  - Modulação por frequência de pulsos

 
Aprendizado Supervisionado
  - aproximação de funções (interpolação)
  - classificação de padrões
  - Neurônio de McCulloch
  - Regra delta de Hebb
 IntelCompUnB-2-ANN.pdf  p1-

  - Ivan Nunes da Silva - Cap. 3
 
- Haykin Cap. 1
 
  - Ambientes Python/ML
2/9 5 Aprendizado Supervisionado
  - O Neurônio de McCulloch

    - Regra delta de Hebb
  - O Perceptron de Rosenblatt
    - Reforço Positivo - Reforço Negativo
  - Conjuntos linearmente separáveis 
  - ADALINE
    - Regra delta de Widrow-Hoff (LMS)
 
 
IntelCompUnB-2-ANN.pdf p30-
 
- Ivan Silva Cap 3
 
- Haykin Cap 1


4/9 6  Demos GUI matlab
   - Funções de ativação
   - Bias
   - #Neurônios x "Complexidade" fnl(P)
  - O que um nerônio pode representar?
    - Neurônio com várias entradas
   - Vários neurônios em uma camada
  - nndemos
9/9
AE1


7
Perceptron Multicamadas

  O projeto de uma RNA:
  - Dados: # amostras, representatividade no domínio
  - Topologia: # camadas, # neurônios por camada, funções de ativação
  - Exploração x Explotação ( x Condições Iniciais)

  - Regra delta genearlizada
  - Erro derivativo Quadrático
  - Backpropagation - Werbos, 1974
  - Backpropagation - Hinton, Williams, Rummelhart,
PDP MIT, 1986

A busca pelo mínimo global
  (o pragmático "bom" mínimo local)
    - Gradiente Descente
    - G.D. com Momento
    - G. Conjugado
    - Levenberg-Marquard Jacobiano
    - SGD - G.D.
    - ADAM Adaptive Moment Estimation

Ex1 OCR: domínio com 2^63 padrões
Aprendizado -> generalizar com alguns padrões ruidosos em torno dos caracteres sem ruído.
IntelCompUnB-2-ANN.pdf p36-

 
I.Silva Cap 5 Multilayer Perceptron Networks
    5.3 Training Process of the Multilayer Perceptron
    5.3.3 Optimized Versions of the Backpropagation Algorithm
    5.4.1 Problems of Pattern Classification
    5.4.2 Functional Approximation Problems (Curve Fitting)
    5.5.1 Aspects of Cross-Validation Methods
    5.5.2 Aspects of the Training and Test Subsets
    5.5.3 Aspects of Overfitting and Underfitting Scenarios
    5.5.4 Aspects of Early Stopping
    5.5.5 Aspects of Convergence to Local Minima

 
S. Haykin Cap4 Multilayer Perceptrons
    4.3 Batch Learning and On-Line Learning
    4.4 The Back-Propagation Algorithm
    4.5 XOR Problem
    4.6 Heuristics for Making the BPAlgorithm Perform Better
    4.11 Generalization
    4.12 Approximations of Functions
    4.13 Cross-Validation
    4.15 Virtues and Limitations of Back-Propagation Learning


- Apresentação Ex1 - Reconhecimento OCR com robustez à ruído
11/9 8
 Hopfield Network  IntelCompUnB.pdf p84-

 
I. Silva 7. Recurrent Hopfield Networks
    7.1 Introduction
    7.2 Operating Principle
    7.4 Associative Memory
    7.5 Design Aspects
5.4.3 Problems Involving Time-Variant Systems

 
S. Haykin Cap15 Dynamically Driven Recurrent Networks
    15.1 Introduction
    15.2 Recurrent Network Architectures
16/9 EE1
AE2

9
Adaptive FIR identification


 
RBF
  Ex2 - ADALINE IntelCompUnB.pdf p65-
 
Entrega no Aprender3 Ex. Comp. 1.Apresentação Ex Comp. 2


 IntelCompUnB.pdf p91-
   
I. Silva Cap 6 Radial Basis Function Networks

    S. Haykin Cap5 Kernel Methods and RBF
18/9 10   Aproximadores de funções
 
Camada Competitiva
 Demo3_ICIN_MLPxRBF.m
  Demo4_ICIN_ CComp.m
23/9 11  K-Means, LVQ, SOM
 IntelCompUnB.pdf p96-
 
S. Haykin Cap9 Self-Organizing Maps, Vector Quantization
 
Demo5_ICIN__lvq.m, Demo5_ICIN_lvq3c.m
25/9 12
 Support Vector Machine
    - Aplicação em localização in-door
  Support Vector Machine   IntelCompUnB p191
  Chap 6 - Support Vector Machines  - Hayki
30/9 13
 
 


2/10 14  



7/10
15
 Ambientes DL:
   - VSCode, Anaconda,
Gooflw Colab, TensorFlow, PyTorch, GPU, TPU
  Books with Code :
    - Simon J.D. Prince - Understanding Deep Learning
    - Zhang, Lipton, Li, Somal - Dive into Deep Learning
9/10 16   Controle não-linear com RNAs:
   - NARMA-L2

 
  NARMA-L2.pdf

14/10 17 Redes Convolucionais
  - Conjuntos de Treinamento - Imagens
     – MNIST, CIFAR, ImageNet
  - Convolution x Full Connected
  - Weight sharing,

  - Artificial Intelligence - 65th Jubilee 2021
      Ramo Estudantil IEEE UFCG

 - Lecture 5: Convolutional Neural Networks, Prof. Ming Li,  UWaterloo/CA
 
- Deep_Learning Tutorial, Prof. Daroczy
16/10
EE2 AE3

18

 Redes Neurais Convolucionais
   - CNN = feature maps + LMS
   - maxPool, Flattening
  Reconhecimento de padrões em imagens
  NCC_DL_Tutorial.pdf - Prof. Khapra, Madras/In


  - Ex3 Deep Learn - CIFAR10
21/10 19
 Arquiteturas Deep Learning :
    - AlexNet, ResNet
  Machine Learning-AB ENE2019
  AI 65th Juliblee Ramo Estudantil IEEE UFCG
23/10
20   Arquiteturas Deep Learning :
    - Auto-Encoder, Twins
  Image Segmentation

 lecture_9_jiajun cs321n stanford 2022 - Object Detection and Image Segmentation
  2020 Simulation and Dynamic Models - Brasília Living Labs - MCTIC/CNPq/UnB
  2022 CESUs-Volume-II - Aplicacoes Ed. ECoS
  - Cap12 Simulação Para Sistemas Ciberfísicos;
- Cap14 Inspeção de Ciclovias com VANTs e CNN
28/10
  RNN - Recurrent Neural Networks
  LSTM - Long Short-Term Memory

  RNN DaZhang UCSB
  lecture_10_ruohan cs321n stanford 2022 - Recurrent Neural Networks
  funny video!!: Long Short-Term Memory (LSTM), Clearly Explained

30/10
22   Aprendizado por Reforço

  Deep Reinforcement Learning
  Exemplos: swing-up pêndulo, -duplo, triplo, self-driving car.   Must see film 'alphaGo' - Netflix

  - Reinforcement Learning Tutorial - Peter Bod'ik, UC Berkeley, 2007

  - RL_ENE2019


  - Deep Reinforcement Learning, David Silver, Google - Deep MInd, 2016

  - RL para processo Nível Líquidos 4a ordem, Lucas Guilhem Matos, 2018

4/11

  (Semana Universitária)
6/11

  (Semana Universitária)
9/11 EE3

 
11/11 23  Aula de Exercícios  - Tira-dúvidas
 - Resolução de provas anteriores
13/11 P
24
   Prova Escrita 16:00-18:00
  (Provas com "Formulário Visual")
 
18/11 AE4 25   Attention
  Transformer Deep Learning
  Ruohan Gao - cs321n stanford 2022:
      lecture_11 Atention and Transformers
20/11

 (Dia de Zumbi e Consciência Negra)
25/11 26   Multi-Modal Systems
  Hiroto Honda - Google Colab: Vision Transformer Tutorial.ipynb
 
Atul Ranjan - image-captioning-with-an-end-to-end-transformer-network
27/11 27  Conclusões da disciplina IC   Tópicos avançados (SoTA) em IC
2/12 28  Prévias Artigos  Preparação final - tira-dúvidas sobre o Mini-Congresso de IC 2025.2
4/12 A
29
 Apresentação artigo, grupos I, II e III
9/12 A
30

 Apresentação artigo, grupos IV, V e VI
11/12
EE4

31

 
 Data final para entrega de todos os
 trabalhos, inclusive, event., atrasados  

Consolidação das Notas. Menções -> SIGAA






Lógica Fuzzy   IntelCompUnb pg:140-


 Controladores Fuzzy
 ANFIS - Adpative Fuzzy Inference System
  IntelCompUnb pg:156-191


  Algumas Aplicações
  & Conclusões de RNA e Fuzzy
  IntelCompUnb pg:200-214

Last Updated: 16 Oct 2025