👉 Xiperia ofrece consultoría empresarial que transforma datos en conocimiento accionable para alcanzar los objetivos de tu negocio. Conoce más en www.xiperia.com
@josegastoncirvini1444
Ай бұрын
Que buen canal y que contenido de altísima calidad!
@CodigoMaquina
Ай бұрын
¡¡¡Muchas gracias!!!
@foland2619
Ай бұрын
Siempre un gusto ver tus video Octavio. Tienes buena didáctica.
@CodigoMaquina
Ай бұрын
Muchas gracias por tus palabras. Un saludo!!!
@reinerromero7265
Ай бұрын
Excelente. 😀 Muchas gracias.
@CodigoMaquina
Ай бұрын
@reinerromero7265 muchas gracias por el continuo apoyo :)
@MichiHerbar
Ай бұрын
Mucho gusto de oírte
@CodigoMaquina
Ай бұрын
¡Muchas gracias!
@HelyRojas
Ай бұрын
Pero el XOR ?? Aveces se requieren 2 capas
@CodigoMaquina
Ай бұрын
@HelyRojas muchas gracias por interactuar con el contenido del canal y por la pregunta. Con respecto a si una red neuronal de una sola capa oculta puede realizar la clasificación de datos caracterizados por la compuerta XOR, la respuesta es que SÍ puede. La arquitectura de esa red tiene una sola capa oculta con dos neuronas. De hecho, en este canal ya programamos desde cero esa red neuronal, favor de ver el siguiente video kzitem.info/news/bejne/yoWpuGF7fGuraX4feature=shared&t=1220. Creo que la confusión viene del perceptrón simple, ese sí, solo puede clasificar datos linealmente separables. La ventaja de los videos de youtube es que nos permiten interactuar y resolver dudas vía los comentarios. Así todos aprendemos un poco más. ¡Un abrazo!
@Alex7nt
Ай бұрын
No. Se requiere solo 1 capa oculta.
@josecabrera7928
Ай бұрын
Excelente video. A resumidas cuentas el teorema de aproximación universal teoricamente solo funcionaría para la data de entrenamiento, pero carece de sentido para la data de prueba o datos nunca vistos por el red entrenada?. Y adicionalmente, por la evidencia empirica, las redes neuronales de varias capas demuestran su utilidad a medida que aumenta la complejidad del problema?
@GoTchaMoH
Ай бұрын
ChatGPT: La compuerta lógica XOR no se puede resolver con una sola capa en una red neuronal porque no es linealmente separable. Imagina tratar de dibujar una línea recta para separar los puntos (0, 0) y (1, 1) que dan como resultado 0, de los puntos (0, 1) y (1, 0) que dan como resultado 1; no es posible con una sola línea. Una sola capa solo puede aprender relaciones lineales. Con dos capas, es como si dibujaras dos líneas rectas que combinadas forman una separación más compleja. Esto permite a la red aprender patrones no lineales necesarios para resolver el problema.
@CodigoMaquina
Ай бұрын
@GoTchaMoH muchas gracias por interactuar con el contenido del canal y con los comentarios. Con respecto a si una red neuronal de una sola capa oculta puede realizar la clasificación de datos caracterizados por la compuerta XOR, la respuesta es que SÍ puede. De hecho, la arquitectura de esa red tiene una sola capa oculta con dos neuronas. De hecho, en este canal ya programamos desde cero esa red neuronal, favor de ver el siguiente video kzitem.info/news/bejne/yoWpuGF7fGuraX4feature=shared&t=1220. Creo que la confusión viene del perceptrón simple, ese sí, solo puede clasificar datos linealmente separables. La ventaja de los videos de youtube es que nos permiten interactuar y resolver dudas vía los comentarios. Así todo aprendemos un poco más. ¡Un abrazo!
@CodigoMaquina
Ай бұрын
@josecabrera7928 Para dar más detalle y en pocas palabras, el teorema dice que existe un MLP (tal vez grande) de una sola capa oculta capaz de "representar" cualquier función. Sin embargo, aquí la palabra clave es "representar". Nos gustaría que en lugar de la palabra "representar" tuviéramos la palabra "aprender", pero ese aspecto corresponde al algoritmo de optimización que se utiliza para entrenar la red. De ahí las limitaciones. Muchas gracias por comentar :)
@juancarlospizarromendez3954
Ай бұрын
No se ha hablado de Redes Neuronales Recurrentes ni de Convoluciones que son mas potentes que el perceptrón multicapa de sólo 1 capa oculta.
Пікірлер: 17