Mostrar el registro sencillo del ítem
Aprendizado por reforço no ambiente de jogos
dc.contributor.advisor | Webber, Carine Geltrudes | |
dc.contributor.author | Silva, Jonatan Amaral da | |
dc.contributor.other | Boff, Elisa | |
dc.contributor.other | Casa, Marcos Eduardo | |
dc.date.accessioned | 2024-08-15T17:48:38Z | |
dc.date.available | 2024-08-15T17:48:38Z | |
dc.date.issued | 2024-08-12 | |
dc.date.submitted | 2024-07-04 | |
dc.identifier.uri | https://repositorio.ucs.br/11338/13649 | |
dc.identifier.uri | https://youtu.be/EJDXiCnRy70 | pt_BR |
dc.description | A Inteligência artificial (IA) tem se tornado uma presença cada vez mais constante em nosso cotidiano, com aplicações que abrangem desde chatbots e carros autônomos até reconhecimento de imagem e jogos. A IA tem sido objeto de estudo e reflexões desde a década de 1950, quando Turing propôs o Teste de Turing, também conhecido como Jogo da Imitação. Este teste provocou um debate sobre a capacidade das máquinas de pensar e os limites da inteligência computacional. Nesse contexto, os jogos surgem como um domínio intrigante para a IA, oferecendo um ambiente rico para exploração. Com regras definidas e de fácil compreensão, assim dispensando a necessidade de um especialista, permitindo a participação de pessoas comuns em experimentos e treinos. Dentre os diferentes paradigmas de aprendizado em IA, o Aprendizado por Reforço (AR) se destaca. Este tipo de aprendizado tem a capacidade de aprender diretamente através da interação com o ambiente, sem a necessidade de amostragem. Essa habilidade de tomar decisões em ambientes incertos é uma vantagem significativa, especialmente no ambiente complexo dos jogos eletrônicos. Um exemplo notável de algoritmo de AR é o Q-Learning. Este algoritmo se destaca por não exigir um modelo prévio do ambiente, permitindo um aprendizado direto a partir da experiência acumulada. Para implementação de modelo de IA capaz de aprender a jogar o jogo Pong de forma autônoma, foi utilizado o algoritmo Dueling Deep Q-networks (DDQN) na linguagem pyhton, que é uma evolução do Deep Q-networks (DQN), que combina o Q-Learning e redes neurais profundas em conjunto com a biblioteca gymnasium. Como resultado o modelo chega ao ponto de sempre ganhar, conseguindo atingir a pontuação final máxima de 21 pontos e equiparando aos melhores resultados dos trabalhos relacionados. Esses avanços na aplicação de IA e AR em jogos eletrônicos não apenas demonstram o potencial dessas técnicas, mas também abrem caminho para novas possibilidades de pesquisa e desenvolvimento, contribuindo significativamente para o avanço contínuo da IA e AR nesse campo dinâmico. [resumo fornecido pelo autor] | pt_BR |
dc.language.iso | pt | pt_BR |
dc.subject | Inteligência artificial | pt_BR |
dc.subject | Aprendizado do computador | pt_BR |
dc.subject | Jogos eletrônicos | pt_BR |
dc.subject | Aprendizagem por reforço | pt_BR |
dc.subject | Python (Linguagem de programação de computador) | pt_BR |
dc.title | Aprendizado por reforço no ambiente de jogos | pt_BR |
dc.type | Monografia | pt_BR |
mtd2-br.advisor.instituation | Universidade de Caxias do Sul | pt_BR |
mtd2-br.program.name | Bacharelado em Ciência da Computação | pt_BR |
mtd2-br.campus | Campus Universitário de Caxias do Sul | pt_BR |
local.data.embargo | 2024-07-20 |