Prof. Adolfo BauchspiessControl and AutomationElectrical Engineering e-Mail: adolfobs AT ene unb br Address: ENE/FT/UnB Sala B1-34/18, 70919-970 Brasília-DF,Brazil |
![]() ![]() Lab. de Automação e Robótica Departamento de Engenharia Elétrica Universidade de Brasília - UnB |
|
| |
||
| Home | Lectures | Research | Papers |
Monographs (Grad./M.Sc./Ph.D.) |
| Controle
de Sistemas Dinâmicos |
Inteligência Computacional | Automação Predial c/ IoT | Identificação de Sistemas Dinâmicos | Controle Digital | Lab.
Controle Dinâmico |
Recomendações,
para refletir:
YouTube Flow PodCast 4:40:54
Mentiram
pra você sobre a inteligência artificial [com
Fabio Akita]
YouTube Atila Iamarino
21:29
Dentre os vários nomes que estão (ou que já foram)
populares, para esta fascinante área do
conhecimento, com novas aplicações práticas,
"diárias", temos:
Inteligência
Computacional (
em particular à, Eng. Elétrica,
Mecatrônica/Automação e Controle, Computação e
Redes/Telecomunicações.
| Metodologia | Plano de Ensino |
Ementa |
Links de Interesse |
Referências |
Cronograma |
e-mail assuntos IC: adolfobs
AT ene unb br
- A presente página ( http://www.ene.unb.br/adolfo/Lectures/IC.html)
será utilizada para comunicações da disciplina.
- Aulas expositivas, demos. Slides de Aula:
IntelComp-1:7
- Exercícios computacionais, Artigo → Teams IntelComp2025.2
Avaliação
Atividades Individuais:
- Ex1 a Ex4 Exercícios
Computacionais em Python
- P
Prova, P: 13/2
Atividades
em Dupla (ou individual):
Transparências
Utilizadas nas Aulas
| 1-Connectionism | 2-ANN | 3-MachineLearning | 4-Fuzzy | 5-DeepLearning | 6-LLM | 7-UseCases |
Exercícios
Computacionais (Python)
| extra: LLM - Llama |
| Pseudo-rising
scale shepard.wav |
Matlab GUI nndemom |
Classificação Não-Linear
|
Classificação Diabetes
|
MLP x RBF
|
Camada Comptetitiva |
Demo5
m |
NARMA-L2 Demo6 slx |
Adaptive Neuro-Fuzzy pêndulo -Demo7 ANFIS |
rP2IC223
rP1ICIN218
rP2ICIN218 rP1ICIN 115 rP2ICIN115 rP1ICIN213 rP2ICIN213 rP1ICN212
rP2ICN212
Slides de apresentações A. Bauchspiess
MACHINE LEARNING Environments
- Google
Colab - notebooks no google drive, não precisa
instalar pacotes. (GPU, TPU etc disponíves → connection \/
Change runtime type)
- Anaconda
- interface amigável
para criar e instalar ambientes python (mostra pacotes
instalados/não instalados/atualizáveis relacionados)
- vscode
- ambiente genérico bastante completo de desenvolvimento. C,
esp32, python. Pacotes instalados via terminal.
Roda multiplas instâncias, múltiplas janelas -> prático
para projetos maiores. GPU desejável.
- Pacotes típicos parar IA: Numpy, Matplotlib, SciPy sklearn,
TensorFlow,
Keras, PyTorch ...
Objetivo do Curso
A disciplina Inteligência
Computacional tem como objetivo apresentar técnicas de projeto
para a engenharia, Redes Neurais Artificiais, que se
originaram de pesquisas na área de inteligência artificial.
Aprendizado profundo e Aprendizado por reforço são os tópicos
mais relevantes. A disciplina é acompanhada de exercícios em
Python.
Motivação
Redes Neurais Artificiais:
Programas de computador podem
emular a maneira como o cérebro resolve problemas: uma grande
rede altamente interconectada de neurônios relativamente
simples trabalhando em paralelo. Convencionou-se assim, chamar
de Redes Neurais Artificiais toda estrutura de processamento
paralelo que utiliza o conexionismo como paradigma. Talvez a
característica mais importante das Redes Neurais Artificiais
seja a sua capacidade de aprendizado, i.e., problemas
complexos em engenharia podem ser resolvidos treinando-se a
rede pela apresentação do padrão de comportamento desejado.
Vivemos atualmente, a assim chamada "3a onda" das RNAs.
1a onda, ~anos 1960 - perpectpron; 2a onda, ~anos 1990 -
backpropagation; 3a onda, ~2010 - deep learning.
Lógica Fuzzy:
Seres humanos tomam decisões
considerando não valores exatos, mas sim utilizando uma lógica
que leva em conta um certo "grau
de pertinência" das variáveis envolvidas no processo
decisório. Não se liga, por exemplo, o ar condicionado em
27°C, às 957 h, e umidade relativa do ar em 77%,
mas sim, quando está "quente", no "começo da manha" e quando o
ar está "abafado". Estas variáveis lingüísticas podem
ser melhor descritas e manipuladas
num conjunto Fuzzy. A
Lógica Fuzzy é assim, uma
generalização da lógica clássica que permite incluir a
imprecisão ("fuzziness") nos
processos decisórios. Sistemas neuro-fuzzy combinam a
representação especialista do conhecimento com apredizado
neural.
Metodologia
Aulas expositivas acompanhadas de atividades computacionais. Exercícios individuais em Python ou MatLab e um trabalho de pesquisa, em dupla, (Artigo) visam fixar o conteúdo.
Introdução, Redes Neurais
Artificiais, “Deep Learning”, Lógica Fuzzy, Computação
Evolutiva, Aprendizado por Reforço, Experimentos
Computacionais.
Programa
Introdução
Inteligência
Computacional; Histórico; Problemas de Interesse:
Classificação de Padrões, Regressão, Tomada de Decisão;
Conceitos de Aprendizado.
Redes Neurais
Artificiais
Modelos de
neurônios artificiais; Arquitetura; Perceptron Multicamada;
Redes de Funções Radiais de Base; Mapas Auto-Organizáveis.
“Deep Learning”
Treinamento em
redes profundas: Entropia, “Dropout”, Unidades Softmax e LRU,
Redes convolutivas.
Lógica Fuzzy
Conjuntos Fuzzy;
Funções de Pertinência; Operações; Inferência; Sistema
Baseado em Regras Fuzzy; Controlador Fuzzy; Redes neuro-fuzzy.
Computação
Evolutiva
Conceitos de
Evolução e Genética; Algoritmos Genéticos; Definições;
Operadores básicos (seleção, mutação, cross-over); Variantes.
Aprendizado por
Reforço
Definições;
Processos de Decisão de Markov; Programação dinâmica; Métodos
Monte Carlo; SARSA; Q-Learning
Experimentos
Computacionais
(adequar ao perfil da turma/docente)
Reconhecimento
de padrões - MLP, CNN, DL
Aproximação
de funções
Aprendizado por reforço
Processamento/controle
Neural
Modelagem
Fuzzy
Controle
Fuzzy e Neuro-Fuzzy
Aplicação
“Deep Learning”
Relatórios:
Os relatórios e o artigo deve ser o mais objetivo possível,
porém conter todas as observações relevantes feitas durante a
realização do experimento. Visando padronizar a correção, o
seguinte formato de relatório é sugerido:Template
Exercícios/Artigo Overleaf
/Word.
Os relatórios devem ser enviados para adolfobs [at]
ene.unb.br, identificando no "assunto" do e-mail e no
nome do arquivo .zip anexado (relatório em pdf + códigos):
IC_Exp<#Exp><nome_aluno>
A pontuação leva em conta os seguintes aspectos:
- todos os procedimentos foram seguidos (40%),
- os resultados são apresentados de forma e concisa e clara:
gráficos, tabelas etc (30%),
- a intrepretação dos resultados
é correta e reflete/abrange os objetivos do exercício (30%),
- pontualidade - o atraso será penalizado com 0,5 pontos por
dia útil.
| Data | # | Conteúdo Programático | Material Complementar |
| 19/8 | 1 | Introdução,
Plano de ensino - Conexionismo - Heurísicas - IA Simbólica - IA Subsimbólica |
IntelCompUnB-1-Connectionism.pdf p1- - Murphy Cap 1 - Introduction - Haykin - Introdução - Ivan Silva Cap 1 - Introdução |
| 21/8 |
2 | IA
~ Emular o cérebro humano - Fisiologia → Conexionismo - Psicologia → Sistemas especialistas - O modelo "mais simples" → Paradoxos • Reconhecimento de Padrões • Aproximação de Funções - Rede de neurônios x Rede Neural • Sinapses • Plasticidade |
IntelCompUnB-1-Connectionism.pdf
p1 - Haykin Livro Cap1 - Learning Processes - Ivan Silva Cap 2 - Arquiteturas de redes neurais artificiais e processos de treinamento |
| 26/9 | 3 | Engenharia
do Conhecimento - RNA, Fuzzy, AG, IA - Conjectura de Gödel - AG ex. Mastermind - Aproximadores Universais |
IntelCompUnB-1-Connectionism.pdf
p26- |
| 28/8 | 4 |
Fundamentos
Biológicos - Fluxo unidirecional da informação - Neurotransmissores - Integração espaço/temporal - Modulação por frequência de pulsos Aprendizado Supervisionado - aproximação de funções (interpolação) - classificação de padrões - Neurônio de McCulloch - Regra delta de Hebb |
IntelCompUnB-2-ANN.pdf p1- - Ivan Nunes da Silva - Cap. 3 - Haykin Cap. 1 - Ambientes Python/ML |
| 2/9 | 5 | Aprendizado
Supervisionado - O Neurônio de McCulloch - Regra delta de Hebb - O Perceptron de Rosenblatt - Reforço Positivo - Reforço Negativo - Conjuntos linearmente separáveis - ADALINE - Regra delta de Widrow-Hoff (LMS) |
IntelCompUnB-2-ANN.pdf p30- - Ivan Silva Cap 3 - Haykin Cap 1 |
| 4/9 | 6 | Demos GUI
matlab - Funções de ativação - Bias - #Neurônios x "Complexidade" fnl(P) - O que um nerônio pode representar? - Neurônio com várias entradas - Vários neurônios em uma camada |
- nndemos |
| 9/9 | AE1 7 |
Perceptron Multicamadas O projeto de uma RNA: - Dados: # amostras, representatividade no domínio - Topologia: # camadas, # neurônios por camada, funções de ativação - Exploração x Explotação ( x Condições Iniciais) - Regra delta genearlizada - Erro derivativo Quadrático - Backpropagation - Werbos, 1974 - Backpropagation - Hinton, Williams, Rummelhart, PDP MIT, 1986 A busca pelo mínimo global (o pragmático "bom" mínimo local) - Gradiente Descente - G.D. com Momento - G. Conjugado - Levenberg-Marquard → Jacobiano - SGD - G.D. - ADAM Adaptive Moment Estimation Ex1 OCR: domínio com 2^63 padrões Aprendizado -> generalizar com alguns padrões ruidosos em torno dos caracteres sem ruído. |
IntelCompUnB-2-ANN.pdf p36- I.Silva Cap 5 Multilayer Perceptron Networks 5.3 Training Process of the Multilayer Perceptron 5.3.3 Optimized Versions of the Backpropagation Algorithm 5.4.1 Problems of Pattern Classification 5.4.2 Functional Approximation Problems (Curve Fitting) 5.5.1 Aspects of Cross-Validation Methods 5.5.2 Aspects of the Training and Test Subsets 5.5.3 Aspects of Overfitting and Underfitting Scenarios 5.5.4 Aspects of Early Stopping 5.5.5 Aspects of Convergence to Local Minima S. Haykin Cap4 Multilayer Perceptrons 4.3 Batch Learning and On-Line Learning 4.4 The Back-Propagation Algorithm 4.5 XOR Problem 4.6 Heuristics for Making the BPAlgorithm Perform Better 4.11 Generalization 4.12 Approximations of Functions 4.13 Cross-Validation 4.15 Virtues and Limitations of Back-Propagation Learning - Apresentação Ex1 - Reconhecimento OCR com robustez à ruído |
| 11/9 | 8 |
Hopfield Network | IntelCompUnB.pdf p84- I. Silva 7. Recurrent Hopfield Networks 7.1 Introduction 7.2 Operating Principle 7.4 Associative Memory 7.5 Design Aspects 5.4.3 Problems Involving Time-Variant Systems S. Haykin Cap15 Dynamically Driven Recurrent Networks 15.1 Introduction 15.2 Recurrent Network Architectures |
| 16/9 | EE1 AE2 9
|
Adaptive FIR
identification RBF |
Ex2 - ADALINE IntelCompUnB.pdf
p65- Entrega no Aprender3 Ex. Comp. 1.Apresentação Ex Comp. 2 IntelCompUnB.pdf p91- I. Silva Cap 6 Radial Basis Function Networks S. Haykin Cap5 Kernel Methods and RBF |
| 18/9 | 10 | Aproximadores
de funções Camada Competitiva |
Demo3_ICIN_MLPxRBF.m Demo4_ICIN_ CComp.m |
| 23/9 | 11 | K-Means,
LVQ, SOM |
IntelCompUnB.pdf p96- S. Haykin Cap9 Self-Organizing Maps, Vector Quantization Demo5_ICIN__lvq.m, Demo5_ICIN_lvq3c.m |
| 25/9 | 12 |
Support Vector Machine - Aplicação em localização in-door |
Support Vector Machine
IntelCompUnB p191 Chap 6 - Support Vector Machines - Hayki |
| 30/9 | 13 | |
|
| 2/10 | 14 | |
|
| 7/10 | 15 |
Ambientes
DL: - VSCode, Anaconda, Gooflw Colab, TensorFlow, PyTorch, GPU, TPU |
Books with Code : - Simon J.D. Prince - Understanding Deep Learning - Zhang, Lipton, Li, Somal - Dive into Deep Learning |
| 9/10 | 16 |
Controle não-linear com RNAs: - NARMA-L2 |
NARMA-L2.pdf |
| 14/10 | 17 | Redes Convolucionais - Conjuntos de Treinamento - Imagens – MNIST, CIFAR, ImageNet - Convolution x Full Connected - Weight sharing, |
- Artificial Intelligence - 65th
Jubilee 2021 Ramo Estudantil IEEE UFCG - Lecture 5: Convolutional Neural Networks, Prof. Ming Li, UWaterloo/CA - Deep_Learning Tutorial, Prof. Daroczy |
| 16/10 | EE2 AE3 18 |
Redes Neurais Convolucionais - CNN = feature maps + LMS - maxPool, Flattening Reconhecimento de padrões em imagens |
NCC_DL_Tutorial.pdf - Prof.
Khapra, Madras/In - Ex3 Deep Learn - CIFAR10 |
| 21/10 | 19 |
Arquiteturas Deep Learning : - AlexNet, ResNet |
Machine
Learning-AB ENE2019 AI 65th Juliblee Ramo Estudantil IEEE UFCG |
| 23/10 |
20 |
Arquiteturas Deep Learning : - Auto-Encoder, Twins Image Segmentation |
lecture_9_jiajun
cs321n stanford 2022 -
Object Detection and Image
Segmentation 2020 Simulation and Dynamic Models - Brasília Living Labs - MCTIC/CNPq/UnB 2022 CESUs-Volume-II - Aplicacoes Ed. ECoS - Cap12 Simulação Para Sistemas Ciberfísicos; - Cap14 Inspeção de Ciclovias com VANTs e CNN |
| 28/10 | RNN - Recurrent Neural Networks LSTM - Long Short-Term Memory |
RNN DaZhang UCSB lecture_10_ruohan cs321n stanford 2022 - Recurrent Neural Networks funny video!!: Long Short-Term Memory (LSTM), Clearly Explained |
|
| 30/10 |
22 | Aprendizado por
Reforço Deep Reinforcement Learning |
Exemplos: swing-up pêndulo, -duplo, triplo,
self-driving car. Must see
film 'alphaGo' - Netflix- Reinforcement Learning Tutorial - Peter Bod'ik, UC Berkeley, 2007- RL_ENE2019- Deep Reinforcement Learning, David Silver, Google - Deep MInd, 2016- RL para processo Nível Líquidos 4a ordem, Lucas Guilhem Matos, 2018 |
| 4/11 | (Semana Universitária) | ||
| 6/11 | (Semana Universitária) | ||
| 9/11 | EE3 |
||
| 11/11 | 23 | Aula de Exercícios | -
Tira-dúvidas - Resolução de provas anteriores |
| 13/11 | P 24 |
Prova Escrita 16:00-18:00 (Provas com "Formulário Visual") |
|
| 18/11 | AE4 25 | Attention Transformer Deep Learning |
Ruohan Gao - cs321n stanford 2022: lecture_11 Atention and Transformers |
| 20/11 | (Dia de Zumbi e Consciência Negra) | ||
| 25/11 | 26 | Multi-Modal Systems |
Hiroto Honda -
Google Colab: Vision
Transformer Tutorial.ipynb Atul Ranjan - image-captioning-with-an-end-to-end-transformer-network |
| 27/11 | 27 | Conclusões da disciplina IC | Tópicos avançados (SoTA) em IC |
| 2/12 | 28 | Prévias Artigos | Preparação final - tira-dúvidas sobre o Mini-Congresso de IC 2025.2 |
| 4/12 | A 29 |
Apresentação artigo, grupos I, II e III | |
| 9/12 | A 30 |
Apresentação artigo, grupos IV, V e VI | |
| 11/12 | EE4 31 |
Data final para entrega de todos os trabalhos, inclusive, event., atrasados |
→ Consolidação das Notas. Menções -> SIGAA |
| Lógica Fuzzy | IntelCompUnb pg:140- | ||
| Controladores Fuzzy ANFIS - Adpative Fuzzy Inference System |
IntelCompUnb pg:156-191 | ||
| Algumas Aplicações & Conclusões de RNA e Fuzzy |
IntelCompUnb pg:200-214 |