490 likes | 618 Views
Redes neurais artificiais. Prof. João Henrique - 2013. Inspiração biológica. O neurônio é a unidade básica cerebral, especializada na transmissão de informações , devido às propriedades de excitabilidade e transmissão de mensagens nervosas. Modelo do neurônio biológico.
E N D
Redesneuraisartificiais Prof. João Henrique - 2013
Inspiraçãobiológica O neurônioé a unidadebásica cerebral, especializadanatransmissão de informações, devidoàspropriedades de excitabilidade e transmissão de mensagens nervosas.
Fluxo de informação • A soma e osdendritos forma a superfície de entradado neurônio e o axônio forma a superfície de saídada informação.
A informação • Na realidade, a mensagemtransmitida entre osneurôniosé o impulsoelétricopropagado entre osmesmos, captadoporreceptoresnervososos.
Modelomatemático do neurônio • McCulloch e Pitts (1943): Perceptron; • Impulsosrepresentadosporsinais de entrada, xi • O estímuloérepresentadopelospesos sinápticos;
Pesos sinápticos • Valoresaleatórios (aprendizagemportentativa e erro); • Maior peso, maisexcitatórioé o estímulo; • Excitatórioouinibitório; • Váriosalgoritmosparacalcularos pesos.
Soma oucorpocelular • Funçãoaditiva: somatória da multiplicação de cadasinal de entradaporseu peso; • Função de ativação: indicaqualserá o resultado do processamento, passadoentãoaoaxônio.
Representaçãomatemática x: sinal de entrada, w: peso sináptico e m: número de sinais de entrada no neurônioi
Redesneuraisartificiais • Tipicamenteformadaporneurôniosinterconectadosemcamadas, ondecadaneurônio interfere em outro; • Representadasnormalmenteporgrafosdirecionados, ondeosvérticessãoosneurônios e as arestassão as sinapses;
Aquisição de conhecimento • Se a situaçãogeradapelacombinação de características for informadaàrede, o aprendizadoésupervisionado. Casocontrário, seránãosupervisionado; • O conhecimentoéarmazenadona forma dos pesos das conexões, ajustadossempreparamelhorar o processo de tomada de decisões; • O ajuste dos pesos éfeitopeloalgoritmo de aprendizagem. O maisutilizadoé o backpropagation.
Construção da rede neural • Decisõesimportantes: • Topologia; • Algoritmo de aprendizagem; • Função de ativação.
Topologia de redesneurais • Dizrespeitoàdisposição dos neurônios, e estáintimamenterelacionadaaoalgoritmo de aprendizagem.
Feed-forward: características • Neurôniosorganizadosemcamadas; • A camadainicial (input) recebeos dados de entrada; • Camadasintermediáriassãochamadas de ocultas; • Cadaneurônio de umacamadaéconectado a todos da próximacamada; • Nãoháconexão entre neurônios da mesmacamada.
Feed-backward: características • A saída de um neurônioéusadacomoalimentação do mesmoneurônioou de um neurônio de camada anterior.
Mapas auto-organizáveis • Osneurôniossãoforçados a competir entre si; • Entendaissocomo um neurônioqueoferece a melhorresposta a um estímulo; • A melhorrespostaganha a competição e esteserá o neurônioativadoemcadaiteração; • As redesdestetipomaisconhecidassão as Redes de Kohonen.
Redes de Kohonen: exemplo O neurôniovencedoré o de cormaisclara, próximoaocentrodo mapa
O Processo de aprendizagem • Atualização da representaçãointerna do sistemaemresposta a um estímuloexterno; • Basicamente se dápormeio do ajuste de pesos sinápticos e ativação de regras de neurôniosindividuais; • Normalmentedivididaem 4 tipos, vistosadiante.
#1: Correção de erro • Característica do aprendizadosupervisionado (saídaesperadaéconhecida) • Mudaos pesos sinápticos a cadaiteração, apóscomparar a saída da rede com a saídaesperada; • O ajusteleva, quasesempre, a errosgradativamentemenores;
#2: AprendizagemHebbiana • Postulado de Donald Hebb; • “Se doisneurôniosem ambos oslados da sinapsesãoativadossincrona e simltaneamente, então a forçadaquelaconexãodeveserseletivamenteaumentada”; • A atividade dos neurôniosgera o ajuste dos pesos.
#4: Aprendizagemcompetitiva • Vejaos slides das redescompetitivas
Perceptron de MúltiplasCamadas • RedesMLP sãoredesalimentadasadiantequepossuemumaoumaiscamadas de neurôniosentre as camadas de entrada e saída, chamada de camadaoculta. • Estacamadaadiciona um podermaioremrelaçãoàsredesPerceptron de camadaúnica, queclassificaapenaspadrõeslinearmenteseparáveis, sendoosneurôniosocultosresponsáveisporcapturar a não-linearidade dos dados.
Perceptron de MúltiplasCamadas • Nestemodelotodososneurôniossãoligadosaosneurôniosda camada sub-sequente, nãohavendoligaçãocom osneurônioslaterais (da mesmacamada) e tambémnãoocorrerealimentação. • A aprendizagem de umarede neural MLP éum processoiterativo, conhecidocomoaprendizagemporexperiência, no qualpadrõesde treinamento (exemplos) sãoapresentadosa rede e com base noserrosobtidos, sãorealizadosajustesnos pesos sinápticos, com o intuito de diminuir o erronaspróximasiterações.
Treinamento no MPL • O principal algoritmo de treinamentoéo algoritmo de retropropagaçãode erro (error backpropagation), baseadonaregra de aprendizagemporcorreçãode erro, queconsistebasicamente de doispassos, um parafrente e outro paratrás.
Treinamentona MLP: frente • O passoparafrenteéchamado de propagação, osvaloresprovindos dos neurôniosde entrada (nósfontes) sãoaplicadosaosneurôniosocultos e posteriormentesuassaídassãoaplicadascomoentradasaosneurôniosda camada final, obtendo a resposta da rede. Durante estepassoos pesos sinápticosda redesãotodosfixos
Treinamento MPL: trás • o passoparatráséincumbido de ajustaros pesos sinápticos, pormeio do cálculodo errorealizadonacamada de saída, os pesos sinápticosentre as camadasantecessorassãoajustados de acordo com umaregra de correçãode erro.
MLP: problemasaoimplementar • Padrõesadequadamenterepresentados; • Número de camadasescondidas; • Número de neurôniosnascamadasescondidas; • Super-treinamento.
Outros modelos: SOM • Self Organized Maps • Aprendizagemnão-supervisionada • PropostaporTeuvoKohonenem 1982
SOM: bases biológicas • Utilizandoconhecimentobiológico, a rede de Kohonenutiliza-se de duascamadas, a camada de entrada e a grade pós-sinápticaoumapa de características, sendo a úlltimaum arranjo bi-dimensional de neurônios.
SOM: maisdetalhes • O mapa auto-organizávelétreinadoutilizandoumaaprendizagemhíbridacompostaporaprendizagemHebbiana e competitiva, ondeosneurôniosda grade pós-sinápticacompetem entre si, com base emumamedida de similaridade com o sinal de entrada, o neurôniomais similar éditoser o vencedor.
SOM: maisdetalhes • A distânciaeuclidianaégeralmenteutilizadacomomedida de similaridade. • O algoritmoresponsávelpelaformaçãodo mapacomeçapelaatribuiçãode valoresiniciais dos pesos sinápticosda grade, atribuindovalorespequenosgeradosaleatoriamente.
SOM: competição • Para cadapadrãode entrada, osneurôniosda grade competem entre si, calculandoa distânciaeuclidiana entre seus pesos sinápticose osvalores do padrãode entrada, sendo o neurôniocom a menordistânciao vencedor (AprendizagemCompetitiva);
SOM: cooperação • O neurôniovencedordeterminaumaárea, vizinhançatopológica, naqualosneurônioscooperarãoentre si (AprendizagemHebbiana);
SOM: adaptaçãosináptica • Determinada a vizinhança, osneurônioscooperam de modo a atualizaremseus pesos sinápticos, sendoqueosmaispróximosdo neurôniovencedorsofremmodificaçõesmaissignificativas do queosneurôniosmaisdistantes.
SOM: aplicação • Clusterizaçãode dados, ouseja, agrupamento de dados intrinsecamentesemelhantes, utilizadoquando nada éconhecidosobreos dados. Osmapas de Kohonenpodemseraplicadosemcompressãode dados, umavezque dados de altadimensionalidadesãomapeadosem um espaçode baixadimensão, preservandoseuconteúdo
Aplicações de redesneurais • Basicamente, o problemade classificaçãoconsisteemclassificarpadrõesde entrada entre classes previamenteconhecidas, tomandocomo base de conhecimentoalgumascaracterísticasdo problemaaplicado.
Aplicações de redesneurais • A clusterizaçãopodeser vista como um problema de classificaçãode padrões, quandoédesconhecidopreviamentequantas e quaissãoas classes a seremclassificadas. A estetipo de problemaaplicam-se redesqueutilizemaprendizagemnão-supervisionada, podendodestacar a Rede de Kohonen.
Conclusões • As redesneuraissãomodelospertencentesaoparadigma de aprendizagemconexionistaindutivo, naqual um conjunto de unidades simples de processamento (neurônios), sãofortementeconectados, formandoumacomplexa e altamenterobustaferramenta de aquisiçãodo conhecimento.