🚀 Agenda una Consultoría GRATUITA para poder analizar tu negocio y conocer como potenciarlo con ayuda de la IA: calendly.com/basdonaxai 🤖Link al repositorio: github.com/fcori47/basdonax-ai-rag Instagram: instagram.com/facundocorengia/ LinkedIn: www.linkedin.com/in/facundo-corengia/ ✅ Como CREAR tu Agencia de Automatización de IA: kzitem.info/news/bejne/komX2qaremWJlX4 🦾 Servicios Más EXITOSOS de una Agencia de automatización de IA: kzitem.info/news/bejne/w5Wgn5ifaXOpoW0&t 📑 Como CREAR las Mejores PROMPTS para tu Agencia de Automatización de IA: kzitem.info/news/bejne/wqN-vpeCsYd7Z3o 💻 Mejor PLATAFORMA Para CREAR Agentes de IA: kzitem.info/news/bejne/km6nu4mEkX98rWU 🤖 El CHATBOT Que Me Consiguió Una DEMO Con NIKE: kzitem.info/news/bejne/qq5r3KBmnZmBanY
@DemosCrackSIaHH
4 ай бұрын
Facundo como estas? a mi me interesa empezar armar algo asi pero desconectado de la red, que pensas? hay charnce o si o si es necesario que sea con doker online?
@facundocorengia
4 ай бұрын
buenas! si usas docker de esta forma esta 100% en local osea no va ninguna info a internet
@facundocorengia
4 ай бұрын
ponele si desconectas el internet de tu pc teniendolo instalado y prendes el rag te va a andar
@CampoTraviesa2.0
4 ай бұрын
La plaga actual...que forma de pensar tan extraña. Te sientes orgullo de destruir el trabajo de la gente amiguito?
@dd92954
3 ай бұрын
@@CampoTraviesa2.0 que destruir trabajo?, si con esto puedo trabajar más rápido, has intentado leerte un pdf para aprender a usar After effects o Clip Studio Paint.... (La cantidad de páginas que tieen) imagina poder transcribir directos con merlin, pasarlos a un word y meterlos en el asistente, tendrías la info que subió algún profesor a youtube, directamente en tu pc, para hacer consultas..... esta gente no valora los avances.
@amomirestaurante4610
4 ай бұрын
Excelente, la 2da parte para que lo conectemos y conteste a los clientes de whatsapp, así tendríamos una secretaria personal para nuestros clientes ❤❤
@alaincristhiamchambiturpo6562
4 ай бұрын
Estaré esperando la versión 2. Que sea como un chat. 😊 Exelente video amigo.
@manuellopez-hf1oc
4 ай бұрын
La ia no puede acostarse con el jefe. Es una gran desventaja. 😂
@MrDamianesco
4 ай бұрын
hey, por ahora
@santiago_mzt
4 ай бұрын
JAJAJA
@drancerd
23 күн бұрын
Entonces no me sirve
@JulioSE
Ай бұрын
Gracias por la información. Tu vídeo me ha servido de inspiración para hacer un índice de todos los documentos que me interesaban en un directorio determinado y un resumen del contenido de los mismos. Además he desarrollado una búsqueda para encontrar un tema seleccionado dentro de dichos documentos.
@fernandorodriguezsidro7216
2 ай бұрын
Enhorabuena por tu vídeo, quedó muy clara la explicación. Me gustó que dieras todo tipo de explicaciones y paso a paso para que no tengas que decir aquello de: "en local me funcionaba" o "pues a mi me iba". Sigue así :D
@AlexanderZakalov
Ай бұрын
me encanta la portada del video, lo interprete como un 'en tu cara, toma esto secretaria'
@danicalla
2 ай бұрын
Gran trabajo. Me sirvio para aprender. Aunque el modelo no funciona bien, ya que las respuestas las imprime en el command prmpt (debes tener un print) pero no las muestra en la interfaz web. Tampoco busca correctamente en los pdf. Detalles para la 2.0 😊
@karlosvaliente
4 ай бұрын
Buen proyecto! De cara a siguientes versiones sería interesante que se lean todos los ficheros que hay en una directorio. Periódicamente puede comprobar si hay nuevos ficheros o si se han modificado los que ya existían para seguir añadiendo el conocimiento propio. Además crear una pipeline que procese y entrene el modelo con la información de otras aplicaciones como Google docs, notion, Evernote... Parece que hay interfaces para cada una de setas aplicaciones en ollama Buen vídeo!!
@facundocorengia
4 ай бұрын
gracias! muy buena idea para la próxima versión!
@ivekmartinez
4 ай бұрын
PUES pides un sistema completo, no hay LLM que cumpla esos requerimientos , lo que puedes hacer es crear un json con las url de tu directorio y ese se lo pasas a la api del llm que uses y asi recoja el conenido que uses, el lio es que llama3 tiene poco contexto entonces los pdf no deben ser muy extensos o bien ir cambiando de archivo, quizás en gemini api, podrias, con su millon de contexto, pero sería caro por el momento, y local pues con las url como lo menciono arriba.
@davidhg834
4 ай бұрын
Muchas gracias bro, estaba interesado en hacer algo asi con IA, pero no sabia por donde empezar, ya con esto puedo realizar un proyecto para mi area en la empresa.
@santievangelio4251
2 ай бұрын
Muchas gracias Facundo, eres un crack y además muy generoso. Estaré muy atento a tus videos. Me ha ayudado mucho esta genial y muy clara explicación
@bryanvillalobos757
28 күн бұрын
En contextos donde no tienes el control de docker puedes usar la api de ollama para bajarte los modelos
@allanpinkerton007
4 ай бұрын
Pero la secretaria hace cosas que la IA no...😌
@vanche2030
4 ай бұрын
sieres nerd si la sustituyes... 😅
@alejandrogrr
4 ай бұрын
literalmente no
@kiryhara
4 ай бұрын
Ah no?
@cristianfranco5903
4 ай бұрын
Creo que lo están viendo desde el punto de vista "nerd" desde el otro punto de vista entenderías el comentario
@allanpinkerton007
4 ай бұрын
Es que si eres demasiado "nerd" no entiendes lo que es sarcasmo y se toman todo literal sin el dulce doble sentido...@@cristianfranco5903
@leadnauta
3 ай бұрын
Muchas gracias probaré con Langchain para agregarle memoria a los promts y sería interesante que pudieras elegir distintos modelos en la interfaz gráfica. De modo que usaría chatgpt4 para cosas complejas, phi2 para cosas básicas o resúmenes y llama3 para Python o código sin consumir la api de open ai. Muy buen video. Es un excelente punto de partida
@wilmarux
4 ай бұрын
Excelente Facundo, te felicito Explicacion y ejemplo 10. Gracias por este aporte a la comunidad.
@isaacvazquez7828
2 ай бұрын
me ha parecido muy interesante esto, no quiero ser como muchos usuarios y esperar la información digerida, por ello deseo conocer si es posible en donde debo buscar información para que al momento de incluir los archivos le haga saber que es un repositorio que ya existe, este repositorio esta organizado por subcarpetas y deseo agregarle la ruta.
@ianalexanderreyes5890
4 ай бұрын
muchas gracias! aprecio mucho la gente que comparte sus conocimientos, me motivan a seguir siendo asi tambien, soy encargado de todo lo que es IA en la empresa en la que trabajo y seguramente implemente esto, saludos!
@facundocorengia
4 ай бұрын
excelente! me alegro que te haya ayudado!!
@bcippitelli
4 ай бұрын
Buenisimo Facundo, gracias por compartir, es algo muy bueno y útil. Voy a probarlo y te comento
@alfierimorillo
4 ай бұрын
Seria interesante que este modelo pudieras conversar con el, y mas aun usando phi-3
@ronaldpv
5 күн бұрын
Excelete aporte, seria genial que el chatboot pueda aprender o leer documentos desde un repositorio (ftp, sharepoint, fileserver). Muchas gracias por compartir tus conocimientos.
@espagnolpratique46
3 ай бұрын
Muchas gracias, está genial. Por favor crea la versión que mantenga un chat continuo.
@ramspartan117
4 ай бұрын
Podrías usarlo para hacer consultas medicas y salvar a millones chaval, muchas gracias por tu ayuda, ojala alguien vea el potencial.
@Carlos-pg9ip
4 ай бұрын
jajajajajajajajaja cuanta inocencia
@ramspartan117
4 ай бұрын
@@Carlos-pg9ip Gracias
@diegolermalimon
4 ай бұрын
Soy médico y ya te digo yo que no es tan fácil, no es seguro y no es legal hacer eso. Pero ojalá en algún momento podamos extender el acceso a la salud con tecnología segura para la gente
@a5ad0r
4 ай бұрын
Eso ya lo hizo IBM hace @8 años
@Termonia
4 ай бұрын
jaja khé? no alcanza la capacidad, hay límites de tokens por hardware y por el diseño de las IAs todavía. Ni siquiera hay modelos buenos con visión. Los VLM todavía están más verdes que los LLM.
@airdany
4 ай бұрын
Esta chulisimo! para mi esto es el futuro. La solución a que la población pueda acceder al big data en el que esta inmerso y darle utilidad. Me da un poco de rabia no poder probarlo ya que tengo un macmini con una tarjeta gráfica pequeña... (ya he probado Ollama con modelos pequeños y le cuesta mucho)... pero a cada mes salen cosas nuevas y en el futuro será un gusto trabajar con datos.
@facundocorengia
4 ай бұрын
totalmente, ahora con modelos como gemini con 1millon de tokens de contexto se pone mejor la cosa, podes hacer que te responda muchisimo mas, esto cada vez pinta mejor. te recomiendo si tenes conocimientos de programacion utilizar gpt-3.5-turbo o gpt-4-turbo si no te funciona rapido el ollama, sino seguramente para el video de la version 2 de este RAG muestre como hacerlo con gpt/llama/phi no solo llama y phi
@ai_ai4715
3 ай бұрын
Muchas gracias, de nuevo, por lo simplificado de la instalación que propones para este RAG. Echo en falta algo que puede ser necesario en muchos casos de uso como los enlaces a los documentos originales que ha utilizado el Llm para mostrar la respuesta. He intentado realizarlo por mi cuenta pero se me hace muy difícil hacer el debug de cualquier nueva función o código. Esto es debido a que no he trabajado nunca con docker y las instrucciones para hacerlo con el IDE SPYDER no me quedan nada claras. Espero que en alguna nueva versión de RAG integres esta parte de metadatos para pasarlos también al Llm.
@facundocorengia
3 ай бұрын
gracias! me lo anoto para la proxima version!
@al_pacino38
4 ай бұрын
Excelente video, voy a probar momentáneamente phi 3 ya que le quité mi gráfica a mi ordenador porque me subió el precio de la luz en la casa y me quitaron el subsidio XD
@blwemar
2 ай бұрын
Excelente
@sebastian3122
3 ай бұрын
Muchas gracias!. Creo que le faltaría poder acceder a páginas concretas de internet, para poder disponer de información actualizada y sería perfecto.
@ncpeaksean4278
4 ай бұрын
Excelente Facu, subscribiendome y esperando más contenido como este...
@arz-ai
4 ай бұрын
Muy buen aporte, lo siguiente como comentas es el tema de memoria, tanto memoria a corto plazo (los n mensajes anteriores), memoria a largo plazo (n mensajes relacionados a lo que preguntas similar al retrieval del pdf) y alguna memoria volátil (en redis o alguna KV db para aspectos puntuales como nombres citas o pasajes importantes)
@facundocorengia
4 ай бұрын
Gracias! sisi, eso lo voy a implementar 100% para la próxima versión, ahora como estaba probando tipo mvp quería ver si valía la pena pero definitivamente si, que recuerde los últimos 5/10 mensajes
@arz-ai
4 ай бұрын
@@facundocorengia perfecto en mi trabajo diseño e integro rag para multiples propósitos, en algunas situaciones no requieres memoria, en otras con dos mensajes es suficiente y en otras se necesita de una extensa memoria. Browsing 1 o dos mensajes y no requiere a largo plazo Pdf, depende el uso en tu ejemplo con uno o dos va bien, pero si el usuario busca entender el pdf si es importante al menos unos 8 mensajes continuos y dos a largo plazo, Como asistente, si es para consultas puntuales memoria a corto plazo de 2 a 4 memoria a largo de al menos dos o tres mensajes. Para crear un javis es muy importante tener al menos unos 10 a corto plazo y unos 4 a largo plazo y sobre todo una memoria volátil que funcione como agenda para que recuerde por ejemplo como te debería llamar una personalidad dinámica etc.
@agustindesimonne
4 ай бұрын
Jajaja volví al video para ver cómo iba y pegado. Muy bien facu
@dd92954
3 ай бұрын
Muchas gracias amigo, queria montarme algo asi para tener un asistente especializado en un tema concreto. Vere hasta donde puedo sacarle partido. Note que a veces cuando le hacia preguntas, tomaba info de un archivo, pero la definición completa estaba en el otro. Le puse dos archivos, uno que habla sobre el proceso de genga y otro sobre douga, que son etapas en la animación japonesa. Pero cuando le pregunto que es Genga, me da una definición incompleta, porque va a mirar lo que se dice sobre el tema en el archivo de douga. Esto ocurre porque ambos archivos explican lo que es cada etapa por separado, pero hacen referencia la una a la otra, es decir, el el documento sobre genga se menciona un poco el douga y viceversa. Como cargue primero el documento sobre douga, al preguntarle que es genga solo me entrega la información del primer documento. Aunque si escribo el prompt de forma mas especifica, por ejemplo, en lugar de escribir "¿Que es genga?", escribo "Explicame que es genga o segunda animación clave" (que es otro concepto relacionado al genga), ahí si va al segundo documento a buscar la definición correcta.
@HugoOrtega
4 ай бұрын
Parcero excelente aporte. Te hablo desde Colombia. Espero con ansias la versión 2.0 para agregar archivos múltiples a la base de conocimiento
@facundocorengia
4 ай бұрын
Gracias! Igualmente podes agregar multiples archivos! pero no de una sola vez, sería uno por uno.
@hildarios175
4 ай бұрын
hola facundo excelente eres un crack ,como quisiera que crearas un curso de automatizacion en udemy seras un grande yo harita ps estoy iniciandome en la programacion y ademas estudiando todo con repecto ala IA
@juanantoniomoraalonso2203
4 ай бұрын
Buenísimo el proyecto....muchas gracias por compartir, sólo tuve que hacer alguna adaptación para utilizar los modelos que ya tenía en LMStudio en lugar de Ollama, y sustituir algun puerto que tenía ya ocupado.
@seniorotaku9145
4 ай бұрын
Estuve haciendo un proyecto parecido como hace 6 meses, pero con Langchai y el Token de API, bastante divertido la verdad
@pablog.6339
3 ай бұрын
Excelente. Estaría buenismo si lo continuas y lo conectas a contestar email y contestar mensajes
@JohnMarin001
2 күн бұрын
Excelente video, muchas gracias. ;)
@leonidas1983
2 ай бұрын
buen canal bro, bien ahi +1 sub
@jcrm5762
4 ай бұрын
Felicitaciones, buen aporte. Sin embargo, recomendar a la gente que si quieren hacer pruebas serias respecto a trabajar con IA en local, procuren contar con la PC, ram y gpu adecuadas, sino será una perdida de tiempo y terminaran en frustración. Por el contrario en todo caso si quieren resultados, objetivos pueden enlazar lo usando los modelos a través de gpt ya que el procesamiento sería en la nube y la respuesta la obtendría sin necesidad del procesamiento del modelo por su pc local. Claro que dependiendo el modelo con gpt turbo o 4 costará algo pero obtendrán resultados más serios y evitar la frustración en el intento de comprender y aprender de esta tecnología. 👍🏼
@MarcosAntonioBustos
3 ай бұрын
Yo podria dar soporte de sistema personalizado , el sistema te permite guardar y usar todo automaticamente y que usuario use su propia computadora sin resticcion , acceder a todo lugares navegados aun si los dispositivos sa tablet , compu o celular que anteriormente usuario alla entrado , el sistema automaticamente intersepta e identifica paginas de usuario en toda la web
@javaboy6581
4 ай бұрын
Muy buen contenido, ojala sigas compartiendo. Espero con ansias las novedades
@facundocorengia
4 ай бұрын
Gracias! sisis obvio no voy a parar, esto recien empieza 😎
@JohnHide
4 ай бұрын
Estoy haciendo un RAG, sin docker, ni python. Todo en Golang, y bueno, pase a ver tu proyecto :) estan interesantes los RAG's jeje
@creed4788
4 ай бұрын
Eres un grande bro mil años de vida para ti
@ivekmartinez
4 ай бұрын
gracias por compartir el metodo, me va servir de mucho
@barrerawilson
4 ай бұрын
Facundo gracias por la info, personalmente algo que me limita mucho para usar la ia con clientes es el hecho de las alucinaciones que podrian generar en su momento info falsa y complicar la implementación exitosa. Aparte de tratar de hacer un buen prompt engineering (que no es tan efectivo) de que otra manera le darias manejo a este problema con la IA?
@facundocorengia
4 ай бұрын
Buenas! Lo que podes hacer en ese caso además del prompt engineering que como bien comentas no lo es todo es bajarle la temperatura a 0, cuando haces eso solo va a responder información 100% precisa, eso me sirvió bastante para cuando hice chatbots para ventas y estaban conectados una base de datos que tenían que obtener el precio y podían errarle con eso. Cambiandole la temperatura a 0 nunca tuve problema, pero si lo dejas por defecto que esta en 0.7 ahí si que es un problema en esos casos
@79_e665
4 ай бұрын
muchas gracias Facundo, te felicito!
@facundocorengia
4 ай бұрын
gracias! me alegro que te haya servido!!
@leandrorivera5044
4 ай бұрын
Excelente aporte, nuevo seguidor😊
@arrivas04
4 ай бұрын
Muy buen video, te agradezco la data!! Me gustaría implementarlo voy a ver que sale... Llegado el momento te contactaré. Un abrazo desde Uruguay!
@cursoderobotica
4 ай бұрын
Buen video y buena explicación! Voy a probarlo y te daré un feedback. Gracias x compartir! Saludos
@anilusluminati6883
4 ай бұрын
Genio, lástima que el 90 % de la gente no entiende más que dar play, uno más que te sigue
@sirlion996
2 ай бұрын
Gracias por este gran aporte ❤ Quisiera consultarte algo. Es posible aumentar la cantidad de Tokens? Vi que ya lograron una ventana de contexto de 1 millon de tokens en Llama 3.
@facundocorengia
2 ай бұрын
buenas! todo depende del modelo llm que uses, hay modelos en huggingface de llama3 con 1 millon de tokens, seria traerselos para así utilizarlo en el codigo que se tiene, eso seguramente lo veamos en la serie que estoy haciendo de como crear un rag, te recomiendo verla
@drancerd
23 күн бұрын
Hermano, te hago una consulta muy especifica, pues se nota que sabes sobre el tema; ¿Como estructurar la DATA (tengo una BDD Postrge; bastante compleja en cuanto a relaciones) para trabajar con un LLM. A esto me refiero con; como nombrar mis tablas o reestructurarlas para que el LLM pueda brindar información fehaciente, eficaz, eficiente y verdadera.
@facundocorengia
18 күн бұрын
si, se puede hacer eso con ia, tengo un video que se llama destrui a los analistas de datos que lo explica todo por si queres saber mas
@drancerd
18 күн бұрын
@@facundocorengia Mortal! Ahí lo busco! porque sinceramente necesito un ia que me permita hacer analisis trayendo multiples datos de la BD, ej: Clima [viento, lluvia, sol, etc], Exámenes bioquímicos del agua, y cruzarles con otros datos, como uso del transporte publico.
@ivanveratudela1193
3 ай бұрын
Hola, felicitaciones por el desarrollo, esta espectacular, al respecto tengo una consulta, ¿la version con tarjeta grafica solo funciona con nvidia o tambien puede usarse si se tiene una radeon?, ¿y si tambien funciona con radeon, desde que serie hay que tener instalada en la pc, rx 5000, rx 6000, etc?
@facundocorengia
3 ай бұрын
gracias! la version del video que es con gpu solo funciona con nvidia (deberia haber una forma para que ande con radeon pero habria que cambiar el codigo), la version que usa solo cpu te tiene que andar si o si
@juancazares-du4vs
4 ай бұрын
Buenazo bro... vamos por mas ...
@MiclovinMelapelan
4 ай бұрын
A qui estaremos al pendiente broo :)
@MiclovinMelapelan
4 ай бұрын
BUENA ESA BROOO :3
@ArielArrieta
4 ай бұрын
Hola Facundo, Gracias por video.Espero que este mensaje te encuentre bien. Estoy enfrentando un desafío al intentar instalar gpt4all==1.0.8 como parte de un proyecto basado en Docker. Desafortunadamente, parece que esta versión específica no está disponible en PiP3, y no logro encontrar una alternativa adecuada o una versión anterior que cumpla con mis necesidades. Detalles del Entorno: Sistema Operativo: macOS Versión de Python: 3.11 Versión de Docker: Docker Desktop para Mac (última versión) Requisito del Proyecto: Estoy construyendo una aplicación contenerizada donde gpt4all es una dependencia crítica. El mensaje de error que recibo durante el proceso de construcción de Docker es: yaml Copy code ERROR: Could not find a version that satisfies the requirement gpt4all==1.0.8 (from versions: 0.1.5, 0.1.6, 0.1.7) ERROR: No matching distribution found for gpt4all==1.0.8 Este problema ha detenido el desarrollo del proyecto, y agradecería mucho cualquier orientación o recomendación que puedas ofrecer. ¿Podrías aconsejarme si hay una versión más nueva disponible o si debo ajustar mi entorno de alguna manera específica para acomodar una versión disponible de gpt4all? Gracias por tu tiempo y ayuda. Espero ansiosamente tu consejo experto y estoy deseoso de resolver este problema prontamente. Saludos cordiales, Ariel
@lorenzo9196
4 ай бұрын
dentro del docker la versión de python es mayor o igual a 3.8? actualizar pip también puede ayudar
@facundocorengia
4 ай бұрын
Buenas Ariel! Muchas gracias! Te recomiendo que en el requeriments.txt del proyecto que esta en esta ruta: basdonax-ai-rag/app/requirements.txt cambies la versión del gpt4all por una de estas versiones 0.1.5, 0.1.6, 0.1.7 , cualquier cosa si no te llega a funcionar comentame por aca o por mi instagram y lo solucionamos: @facundocorengia
@ArielArrieta
4 ай бұрын
@@lorenzo9196 gracias , estoy usando 3.11 y pip3
@ArielArrieta
4 ай бұрын
@@facundocorengia no me funciona con ninguma de las 3 versiones 26.77 ERROR: Ignored the following versions that require a different python version: 0.0.1a1 Requires-Python >=3.6, =3.6, =3.6, =3.6, =3.6, =3.6, =3.6, =3.6, =3.6, =3.6, =3.6, =3.7,
@facundocorengia
4 ай бұрын
fijate que ahi esta puesto 1.0.6 y es 0.1.5, 0.1.6 o 0.1.7
@ai_ai4715
3 ай бұрын
Me pareció interesante tu tutorial sobre RAG y he intentado instalarlo para ir aprendiendo. Tras hacer varias pruebas me han surgido varias cuestiones que las cito por orden de relevancia, en mi humilde opinión. Te agradecería que me respondieses, al menos a la primera de las cuestiones. 1.-Intento modificar el contexto de la pregunta editando el fichero assistant_prompt.py sin éxito y me percato que en el subdirectorio pycache hay un fichero assistant_prompt.cpython-311.pyc que tiene una fecha anterior y que probablemente es el que se lutiliza para rellenar la consulta que se envía al Llm. ¿Hago algo mal o no se puede/debe cambiar el contexto?. 2.-¿Si quisiera obtener y pasar más chunks al LLm bastaría con cambiar el número 5 en la siguiente sentencia de langchain_module.py? target_source_chunks = int(os.environ.get('TARGET_SOURCE_CHUNKS',5)) 3.-Me gustaría probar a generar chunks algo más largos con mayor solapamiento. ¿Bastaría con cambiarlo en las siguientes sentencias del script ingest_file.py? chunk_size = 500 chunk_overlap = 50 4.-¿Se pueden integrar en la base de conocimiento ficheros/textos en otros idiomas como el inglés además del español? 5.-Aunque tengo una tarjeta muy antigua 1070, no he tenido problemas hasta la fecha para utilizarla con cuda. Aunque he cargado Llama-3 con Lm studio y me ha funcionado usando la GPU con tu instalador que exige una versión específica de Cuda y Ubuntu la instalación se para, aunque mi versión de cuda es superior a la que se exige si bien es cierto que utilizo windows powershell y no veo ubuntu por ningún sitio. ¿Podría editar de alguna manera la instrucción donde se dicta la versión de Cuda a instalar?
@abstractmusic7583
3 ай бұрын
bro te funcionó cambiando esos parámetros que mencionastes?
@ai_ai4715
3 ай бұрын
@@abstractmusic7583 Sí funcionó pero hay que volver a realizar docker-compose up para que regenere los .pic con los cambios. (También he borrado los ficheros que había subido por si acaso porque que he cambiado el tamaño del chunk a 1000 y el solapamiento a 200)
@facundocorengia
3 ай бұрын
buenas! te respondo: 1) te debería funcionar con cambiar el texto de la prompt, lo que si tenes que hacer el docker compose up nuevamente para que cargue con ese cambio realizado 2) exacto 3) exactamente, recorda lo del docker-compose up despues de los cambios para que se reflejen en la app 4) sip, no habria problema con eso, lo que si puede que te responda en el idioma del documento si no le especificas que queres que te hable en español siempre. por ejemplo un documento en ingles y vos le preguntas en español 5) si, proba editandolo en el docker-compose en la parte de nvidia: image: ahi tenes que fijarte las versiones y cambiarlo ahi si tenes alguna otra duda hablame a mi instagram que estoy siempre por ahi! @facundocorengia
@khriza4991
2 ай бұрын
Excelente video 👌
@drycfullmetall
4 ай бұрын
Gracias saludos del Perú eres un pro igual tengo que estudiar programación me urge.
@facundocorengia
4 ай бұрын
de nada! mañana subo un video que te va a servir sobre ese tema, que va a ser la ruta de aprendizaje de ia con codigo en 2024, asi podes aprenderlo al 100%
@diegogschmidt
4 ай бұрын
La IA es una hiperfunción, gracias.
@DanielGonzalez-le6ol
4 ай бұрын
eres un crack , nuevo seguidor , sigue así chaval
@Ros01
7 күн бұрын
la gran jugada que hizo Meta es brutal
@BricoBit
4 ай бұрын
Un videotutorial de como instalar la version mini de phi-3 en un vps seria genial, podriamos empezar a crear nuestros propios chats de asistencia personalizados con documentos propios. Buen tuto
@facundocorengia
4 ай бұрын
Buenas! muy interesante eso, seguramente en algun momento comente eso porque los modelos open source estan cada vez mejores, antes gpt3/4 no tenia rivales literal y ahora si, en un futuro lo voy a comentar como tambien el tema del fine tuning de los llm open source que hay gente que hace eso a modelos open source para dejar que respondan como gpt4-turbo 🤯
@s4d1c0p4t0b
28 күн бұрын
Muchas gracias por tu tutorial, muy util. es necesario usar all-MiniLM-L6-v2 ?? esto obliga a estar conectado a internet? tengo alguna opción de hacer local?
@facundocorengia
18 күн бұрын
si usas los de openai es siempre con internet, ese te lo descargas y es offline para siempre
@nolbertosanchez4247
4 ай бұрын
Excelente voy a suscribirme a tu canal. a las siguientes versiones puedes añadirle soporte al api de openrouter, ejecucion de acciones, code interpreter y agentes👍
@facundocorengia
4 ай бұрын
Bienvenido! Me anoto tus ideas para la próxima versión!
@Igris-on3ps
2 ай бұрын
me encanta la miniatura es como: destruí los empleos de un grupo de personas, *procedo a sonríe de oreja a oreja* ajjasjass
@eloydamianmolina7362
4 ай бұрын
Te juro por las cosas que tengo más bellas de mi vida que estaba creando la misma idea 😢
@afanporsaber
4 ай бұрын
Si sustituimos a todos los funcionarios y gobernantes corruptos, nos ahorraríamos trillones de dólares y de tomas de decisión decididas por conveniencia de los corruptos y no de las Constituciones de cada nación.
4 ай бұрын
te cojen las empresas y lobbys bro
@edgardpc6378
4 ай бұрын
Los gobernantes son corruptos pero la gente común es peor
@facu8933
4 ай бұрын
Eso ya lo hace china hace mas de una decada, pero seguro pensas que son socialistas y que trabajan en minas de carbon con niños jajajaa. Se te huele lo libertario a kilometros. Termina la secundaria pibe!
@gmazuel
3 ай бұрын
Todos somos corruptos . El programador de la IA también se va corromper cuando tenga la necesidad y la oportunidad.
@teclag5483
3 ай бұрын
porque las empresas y los lobbys y el narcotrafico no estan metidos en politica o sobornando politicos jajajaja
@AnthonyPinero
4 ай бұрын
Saludos, buen video te felicito, consulta rapida: en el video dices que usas VectorDB pero en la implementacion usas ChromaDB cierto? o donde esta la implementacion de VectorDB? y porque muestras info sobre ChromaDB?
@facundocorengia
4 ай бұрын
gracias! claro la vectordb es chromadb, es como que vectordb sería el nombre de ese tipo de base de datos
@adonaicallejas6999
4 ай бұрын
Buen aporte gracias!
@aliexerleo
13 күн бұрын
hola @facundocorengia. muy excelente tu contenido. Gracias por compartirlo. Te queria preguntar si el proyecto corre solo con python 3. 11 ? yo tengo python 3.12 y no me corre,
@josefabre4026
4 ай бұрын
Cool RAG.
@postmodern.cyberpunk
4 ай бұрын
Hola Facundo! Gracias por tus videos. Me subscribi porque encuentro interesante los temas que publicas. Soy de Costa Rica y queria saber cuales son las companias en argentina de tecnologia bien renumeradas.
@facundocorengia
4 ай бұрын
Gracias! eee no tengo mucha idea de como está el mercado aca en arg porque trabajo para afuera, pero se que las que mas pagan son las startup y capaz alguna de las grandes como accenture, globant, ml, etc
@ser12369
4 ай бұрын
Muchas gracias !!
@UltimateMarvel
15 күн бұрын
Pregunto, a diferencia de GPT, llama es gratis o tiene limite de respuesta?
@geozoonegps1157
4 ай бұрын
Excelente video.
@amikof1301
3 ай бұрын
Fenomenal
@gustavos.c2304
4 ай бұрын
Muchas gracias
@sebastiancuadro7378
4 ай бұрын
Excelente Facundo, voy a probarlo, te pregunto, se podra conectar a una base de datos? Saludos
@facundocorengia
4 ай бұрын
Gracias! por el momento solo a la de vectores, aunque se podria hacer una conexion para que utilice una base de datos sql
@alexandrohdez3982
4 ай бұрын
Excelente video, consulta 1. sin GPU que requerimiento de RAM se tiene, 2. Los archivos hay que subirlos en cada inicio del docker o quedan persistentes? Saludos y mil gracias 👏👏👏
@facundocorengia
4 ай бұрын
Gracias! con tener 16gb deberías estar bien, en el video uso 32gb y ahi si vas un poco sobrado asi que debería andarte también si tenes esa cantidad, aunque eso es en windows, en mac por lo que tengo entendido la ram necesaria es menor
@alvica40
4 ай бұрын
yo trabajo para clinicas. y me gustaria poder implementar para consulta de informacion de clinicas
@facundocorengia
4 ай бұрын
Si estas interesado en implementarlo te paso el link para agendar una llamada conmigo: calendly.com/basdonaxai/basdonaxai y ver si te puedo ayudar
@a5ad0r
4 ай бұрын
Hola, muy buen y sintético video ! que base vectorial estas usando ?
@facundocorengia
4 ай бұрын
Gracias! uso ChromaDB
@geozoone
3 ай бұрын
Excelente video Facundo. lo estoy probando pero me tope con este problema la version de phi3 sin gpu en windows "no space left on device. "
@facundocorengia
3 ай бұрын
gracias! estuve buscando informacion y de esta forma lo podes solucionar: forums.docker.com/t/docker-desktop-for-macos-no-space-left-on-device/140831 , se ve que tenes que manejar vos mismo el espacio que se le asigna a docker desktop, asi seguro que te deja, eso es en mac pero la interfaz del docker desktop es la misma
@geozoone
3 ай бұрын
@@facundocorengia Gracias por la rspuesta, te comento ya logre instalarlo. te comento luego de las pruebas.
@juan932932
4 ай бұрын
que genio segui asi y hasta vos vas a terminar revolviendo en la basura!!!
@facundocorengia
4 ай бұрын
jajajajajjaj gracias! veremos en unos años como cambia todo con la ia
@mikeeotool2677
4 ай бұрын
The beneficiaría Muchísimo NO PERDERTE y hablar de una forma LO más claro posible durante TODO el tutorial... Por ahora tu voz is "to muddy" y eso dificulta entenderte, este detalle elevaria tus tutoriales enormemente, por ahora la fluidez de tus tutoriales es de una forma principiante ... con buenos conocimientos.
@gmazuel
3 ай бұрын
como se puede usar el modelo GPT4o (plus) ?. Excelente video.. suscrito..
@facundocorengia
3 ай бұрын
gracias! para utilizarlo habría que cambiar una de las partes del código para que en vez de usar Ollama use OpenAI y el modelo de GPT4o, estoy ya desarrollando la nueva versión que tiene la opción de usar OpenAI o Ollama!
@gmazuel
3 ай бұрын
@@facundocorengia sabes que la actual version me da este error : nvidia-container-cli: requirement error: unsatisfied condition: cuda>=12.3, please update your driver to a newer version.. pero no encuentro la version adecuada..
@goonlopez3888
4 ай бұрын
capo amigazo.
@oskartthit6821
4 ай бұрын
excelente trabajo una pregunta esto servira para temas de gestion documental es decir hacer comparaciones de diferentes documentos y que la ia procese la informacion que muestre la coincidencia
@facundocorengia
4 ай бұрын
gracias! si se podría pero habría que hacer modificaciones tanto en la prompt como en el código, te recomiendo que pruebes modificando la prompt, mañana voy a subir un vídeo de prompt engineering avanzado que seguro te sirve para este caso!
@oskartthit6821
4 ай бұрын
@@facundocorengia vale muchas gracias
@InspirIA-k5w
2 ай бұрын
Hola facundo. gran video, ¿ que puede llegar a pasar si eligo usar el modelo de llama, y tengo una nvidia geforce mx 110 que tiene vram de 2gb? osea puede que al momento de responderme "la secretaria" lo haga muy lento, pero que mas puede llegar a suceder.....
@facundocorengia
Ай бұрын
buenas, gracias! lo unico que te va a pasar es lo que decis, te va a tardar muchisimo, te recomiendo phi2/3
@paologonzalez8674
4 ай бұрын
Excelente video,una pregunta expone alguna api que pueda ser consumida desde otra fuente?
@facundocorengia
4 ай бұрын
habría que prepararlo para que funcione de esa forma, ahora a la única cosa a la que se puede hacer request es ollama
@barrerawilson
4 ай бұрын
Gracias por la info, tu código correría en una nvidia GTX 1080?
@facundocorengia
4 ай бұрын
de nada! te recomiendo que pruebes con phi3 más que con llama3 en ese gráfica, si anda bien proban con phi ahí si pasa a llama
@ronaldalcantara6165
3 ай бұрын
@@facundocorengia Probaré con GTX 1050
@paologonzalez8674
2 ай бұрын
Hago el paso a paso y no funciona (no me responde) le cargo los archivos y todo bien pero luego no responde :-(
@facundocorengia
2 ай бұрын
buenas! que te sale? si queres enviame por instagram lo que te paso: @facundocorengia
@diogenescastro
4 ай бұрын
Aparte de agradecer tremendo aporte quiisera consultar si es posible que pueda entregar citas textuales desde los documentos, para motivos de bibliografía y/o referencia
@facundocorengia
4 ай бұрын
gracias! sisi se puede, tenes que especificarle en la prompt que queres que te responda asi, te recomiendo que te veas mi video sobre eso: kzitem.info/news/bejne/wqN-vpeCsYd7Z3o para que te ayude a responder de esa forma
@diogenescastro
4 ай бұрын
@@facundocorengia muchas gracias de nuevo
@BricoBit
4 ай бұрын
Lo he probado y me va muy lento, se queda en running, en cambio con LLMStudio con phi3 me va rapidisimo
@facundocorengia
4 ай бұрын
Buenas! tarda mas en responder que LLMStudio ya que cada vez que le haces una consulta realiza el embedding de lo que escribiste, busca los 5 chunks que mas similitud tengan, se le pasa al modelo y ahi genera la respuesta, mas que nada por eso
@nestorjadergomezrestrepo1378
3 ай бұрын
Pregunta hace el mismo trabajo de un asistente virtual ?
@facundocorengia
3 ай бұрын
no, esto seria solo para responder consultas a una base de conocimiento, este seria un asistente virtual: kzitem.info/news/bejne/qq5r3KBmnZmBanY
@desk6173
4 ай бұрын
Grande bro
@raulgongora4895
4 күн бұрын
facun, hay q cargar el modelo cada vez q apagas la pc?
@dronix1969
4 ай бұрын
Muy buen aporte estimado, consulta se puede ocultar el enlace de subir archivos ya que asi cualquiera podria subir cualquier archivo, seria bueno tener uno para administrador y otro solo para usuarios el chat
@facundocorengia
4 ай бұрын
Buenas! Muy buena idea por si varias personas lo usan! definitivamente voy a implementar eso en la versión 2.0
@facundocorengia
4 ай бұрын
Por el momento quedan las dos páginas "publicas" por así decirlo, sería como más para uso personal, pero es como vos decís que si lo usan varias se puede complicar la cosa, te diría que quedes atento a la nueva versión que 100% va a tener eso.
@marceloestebanbabio892
2 ай бұрын
Vas a abrir una serie para jacer el rag? Se puede armar con la api de gpt4o pago? Por que es mejor que un gpt en gpt4o pago? Gracias
@facundocorengia
2 ай бұрын
justo ayer empece con la serie: kzitem.info/news/bejne/oqaQ3I2QgqmEmHo
Пікірлер: 411