Obrigado pelo conteúdo! Eu quebrei a cabeça para fazer aprender esse trem e rodar sozinho. Com certeza semestre que vem vou comprar o curso
@yagami6661
Жыл бұрын
PERA AÍ?! Você não é o cara do "descomplicando a música"? 🤨 Caramba, eu estudo música faz tempo e recente eu vim estudar python no youtube e dei de cara com um dos meus professores de música tbm?! KKKKKK
3 ай бұрын
Cara, na parte teórica vc não põe um slide, fica só de boca? Estou fazendo uma crítica construtiva.
@BrazNaFranca
9 ай бұрын
Maravilha de conteúdo 💞🙏💯 super joinha 👍 Lhe desejo um feliz 2024 🇧🇷 Deus abençoe grandiosamente 👏👏
@hurakann
Жыл бұрын
Vou guardar esse pra quando eu estiver mais versado nos algoritmos. Trabalho de voces é muito bom, espero que prosperem!
@geanclm
5 ай бұрын
Sensacional! Um dos melhores vídeos sobre aprendizado de máquina de forma tão acessível e prática! Parabéns pela qualidade e explicação do conteúdo e obrigado por compartilhar riquíssimo conteúdo acerca de machine learning, O aprendizado por reforço somente com bom exemplo pra ficar bem compreendido e o vídeo cumpriu bem esse objetivo. Saúde e sucesso para toda a equipe Didática Tech!
@gtbronks
Жыл бұрын
Primeiramente, parabéns pelo vídeo! Muito bom mesmo! Uma dúvida: 1:05:45 se ao invés de usar uma CPU eu utilizar uma GPU eu posso utilizar tb esse recurso de "threads" para aprendizagem em paralelo? E aí no valor descrito eu poderia colocar o número de CUDAS que existe na minha placa de vídeo tal como você coloca o número de threads quando usa a CPU?
@gtbronks
Жыл бұрын
@DidaticaTech
Жыл бұрын
Dificilmente isso vai funcionar, pois os núcleos CUDA são muito limitados em termos de operações que podem fazer (realizam apenas operações matemáticas básicas). Então se você criou um environment personalizado que realiza apenas operações simples, essa ideia pode ser útil. Caso contrário, os núcleos CUDA não conseguirão simular os envs
@andersonpavani1982
Жыл бұрын
uma sugestão para um próximo vídeo seria: como executar esse treinamento utilizando o processamento da VGA com OpenCV
@literatura_web
10 ай бұрын
Boa tarde, Professor em um de seus curso de Machine Learning obetive o seguinte erro Singleton array array(None, dtype=object) cannot be considered a valid collection. no modulo um (no qual usa todos os modelos pra saber qual é o mais adequado )
@erivanlacerda9075
Жыл бұрын
Esse sistema de aprendizado por reforço ela memoriza as ações de todas as jogadas passadas? para não cometer os mesmos erros que fez? se isso fosse aplicado em um game 3D não acabaria com toda memoria do pc?
Жыл бұрын
A memória no caso do PPO fica nos pesos e bias da rede neural, então nesse aspecto não vai acontecer esse problema. Isso especificamente ocorre nos algoritmos que usam replay buffer como o DQN
@umcanalsemvidanoyoutube8840
Жыл бұрын
Idéia de vídeo: um video para explicar um pouco mais sobre como funciona os algoritmos de aprendizado por reforço por trás, como o PPO
@LucasAlves-rw2ch
Жыл бұрын
É possível fazer este projeto com a versão mais recente do Python que é a 3.11
@LHASTEWR13
8 ай бұрын
46:31 o codigo nao ta funcionando pra mim a janela nao funciona ela laga e nao da pra fazer nada e nao aparece os print qie ERA pra aparecer
@renanbarella7556
Жыл бұрын
Excelente seu vídeo me salvou! muito obrigado pssor! :)
@hurakann
Жыл бұрын
Didática Tech: a Eu: Melhor didática que existe.
@andersonpavani1982
Жыл бұрын
Estranho, aqui na minha máquina, deixei rodando por 20 horas, rodou até n1024b64l3_3900000_steps e o mario ainda não consegue passar de fase, e olha que mandei ele jogar umas 10 vezes
@andersonpavani1982
Жыл бұрын
depois de rodar ele por umas 30 vezes, finalmente ele passou de fase, mas vou deixar rodando até terminar os 10M pra ver a evolução dele
@andersonpavani1982
Жыл бұрын
depois de 59.35 horas, finalizou o treinamento e pra minha tristeza o mario ainda está muito ruim pra passar de fase, percebo que ele tem mais habilidade no início da fase, acredito que isso se dê ao fato que durante o treinamento ele sempre vai aperfeiçoando os movimentos do inicio da fase, mas como ele passa do meio da fase com pouca frequência, fica menos habilidoso conforme vai avançando na fase. A impressão que tenho é que há pouca informação pra IA tomar as decisões de movimentos. Talvez o ideal seja pegar 1 quadro a cada 2 ao invés de 1 a cada 4 ou aumentar a "resolução" da dos pixels analisado pela IA, mas isso deixaria o treinamento muito mais lento.
@Alekoxid2
Жыл бұрын
@@andersonpavani1982 como vc fez pra visualizar o aprendizado?
@andersonpavani1982
Жыл бұрын
@@Alekoxid2 ele ensina no vídeo, é só rodar aquele segundo trecho de código colocando o arquivo zip do treinamento no caminho que ele mostra
@Alekoxid2
Жыл бұрын
@@andersonpavani1982 ah entendi. Não apareceu aqui pra mim. Eu usei 2 notebooks, um usei 15 threads e outro 7 threads por mais de 50 horas e nem o modelo apareceu. Alterei o saves e outras variáveis e nada. Tô empacada nisso ainda :/
@carlosaugustojardimchiarel2550
10 ай бұрын
Muito massa o vídeo, parabéns!
@umcanalsemvidanoyoutube8840
Жыл бұрын
Eu tenho dúvidas sobre como dar recompensas não imediatas, por exemplo, imagina num jogo qualquer, se a IA vencer é +1 e se perder -1, eu não sei implementar isso, só recompensa imediata
Жыл бұрын
A ideia é a mesma, basta colocar a lógica na função de recompensa. Mostramos isso no nosso curso.
Uma dúvida no curso de tensorflow qual versão vcs estão usando ?
Жыл бұрын
Olá! Para redes neurais utilizamos a versão 1.14 do TensorFlow. Quando possível pretendemos atualizar a versão do TensorFlow utilizada no curso, porém ainda não podemos por conta de dois importantes assuntos que não possuem suporte na versão 2 do TensorFlow. Abaixo detalhamento: Detecção de objetos com Mask R-CNN: github.com/matterport/Mask_RCNN Aprendizado por Reforço: stable-baselines.readthedocs.io/en/master/guide/install.html
Пікірлер: 38