Show simple item record

dc.contributor.advisorCabral, Eduardo Lobo Lustosapt_BR
dc.contributor.authorCardozo, Eduardo Jose Rezendept_BR
dc.contributor.authorFanucchi, Luca Zanfelicipt_BR
dc.contributor.authorSemitan, Gabriel Santinellopt_BR
dc.contributor.authorSilva, Matheus Goncalves Zaitune dapt_BR
dc.date.accessioned2024-01-22T15:08:38Z
dc.date.available2024-01-22T15:08:38Z
dc.date.issued2023
dc.identifier.urihttps://repositorio.maua.br/handle/MAUA/500
dc.description.abstractWith the growing evolution of autonomous driving technology, the development of perception systems becomes essential for vehicles to have a comprehensive view of their environment, thereby improving their ability to make precise and safe real-time decisions. In this context, this work focuses on the development of a low-cost omnidirectional catadioptric vision system using a camera and a hyperbolic mirror. The goal is to enable accessible, reliable, and economical mobility in the future. Python programming language and its integrated libraries were employed for image transformations and matrix calculations. Additionally, the YOLO (You Only Look Once) artificial intelligence was utilized for real-time object and person detection. After program development, tests simulating system usage were conducted to identify potential issues such as lighting, maximum detection distance, and processing speed. As a result, an average of 15 to 20 frames per second (FPS) was achieved, a satisfactory value for both visualization and object distance calculations.en
dc.description.abstractCom a crescente evolução da tecnologia de condução autônoma, torna-se essencial o desenvolvimento de sistemas de percepção para que os veículos possam ter uma visão completa do seu ambiente, melhorando assim sua capacidade de tomar decisões precisas e seguras em tempo real. Neste contexto, este trabalho concentra-se no desenvolvimento de um sistema de visão omnidirecional catadióptrico de baixo custo, que utiliza uma câmera e um espelho hiperbólico. O objetivo final é viabilizar uma mobilidade acessível, confiável e econômica no futuro. Para isso, foi empregado a linguagem de programação Python e suas bibliotecas integradas para calcular as transformações das imagens e cálculos de matrizes. Além disso, foi utilizado a inteligência artificial YOLO, capaz de identificar objetos e pessoas em tempo real. Após a construção do programa, foram feitos testes simulando o uso do sistema, com o intuito de identificar possíveis problemas, tais como iluminação, distância máxima de detecção e velocidade de processamento. Como resultado, atingiu-se uma média de 15 a 20 imagens por segundo (FPS), valor satisfatório tanto para a visualização quanto para o cálculo de distâncias de objetos.pt_BR
dc.languagePortuguêspt_BR
dc.subjectOmnidirectionalen
dc.subjectCatadioptricen
dc.subjectVisionen
dc.subjectAutonomous Vehicleen
dc.subjectArtificial Intelligenceen
dc.subjectOmnidirecionalpt_BR
dc.subjectCatadióptricopt_BR
dc.subjectVisãopt_BR
dc.subjectVeículo autônomopt_BR
dc.subjectInteligência Artificialpt_BR
dc.titleVisão 360° para veículos autônomospt_BR
dc.typeTrabalho de conclusão de cursopt_BR
local.date.defesa2023-12-02
local.editorCEUN/EEMpt_BR


Files in this item

Thumbnail

This item appears in the following Collection(s)

Show simple item record