Exprésate aquí
Este hilo contiene 3277 post y 164 página(s).
Mensajes fijados
Hola.
este post está fijado para dejarles por aquí el hilo de introducción al MLF.
En él podrán encontrar los reglamentos, los clientes, y una explicación rápida de qué es MLF.
Útil para los que vayan llegando.
https://marco-ml.com/foro/hilo/107/
good_bunny
Sábado, 17/01/2026 21:41:25me expreso:
al fin en mi casa fuck.
que rico se siente volver a casa,
ya la extrañaba bue. al fin te tengo en mis manos computadora. volvamos a la rutina, buewe.
ElMontarro
Domingo, 18/01/2026 00:52:44Amigos yo quiero ejecutar XTTS pero el deste me da errores de dinámicos ddl. Me rendí de intentar, pero al menos funcionó whisper. La 5060 valió la pena.
vengo llegando de trabajar, me pagaron 700 pesos por tocar una hora, me puse a pistear un rato (gratis porque nos invitaron 3 cubetas) mientras escuchaba un norteño de fondo que tocó después de nosotros, me senté con un compa mientras otros camaradas jugaban billar y pisteaban, de regreso me chingué unos golpecitos de humo con olor curioso y gusto sabroso de carácter mágico, llegué a acostarme sin ningún ruido porque no hay necesidad ni de prender los aires y en la mañana toca levantarse tempra para salir a relajear en el centro de la ciudad y valer verga un rato con los jefes. qué mas puedo pedir madre santa, qué más!
> Rayo escribió:
> yo solo he probado llm studio para mover uno de llama de 3b, me da culo probar uno de 8, tengo 16 gb de ram y 6 en v ram jaja. no me he metido a moverle tanto a los parámetros ni con modelos cuantimizados. igual, hoy por hoy estoy más con la generación de imagen. intenté con la de video, pero comfy me dio problemas al cargar, y esa es la única interfaz que corre ese modelo ligero que vi.
yo creo que te debería correr, a mi me anda incluso sin tener GPU qwen 3VL. aunque va lento y para hacer descripción de una imagen tarda como 5 minutos pero de que anda anda. Supongo que con gráfica iría hasta mejor. @good_buny viciado, buue.
> good_bunny escribió:
> me expreso:
> al fin en mi casa fuck.
> que rico se siente volver a casa,
> ya la extrañaba bue. al fin te tengo en mis manos computadora. volvamos a la rutina, buewe.
Noo bueno
> wind-blaze escribió:
> yo creo que te debería correr, a mi me anda incluso sin tener GPU qwen 3VL. aunque va lento y para hacer descripción de una imagen tarda como 5 minutos pero de que anda anda. Supongo que con gráfica iría hasta mejor. @good_buny viciado, buue.
que modelo dices tu? en ollama probé el de gpt oss 20b y me corrió, a tirones.
> Rayo escribió:
> que modelo dices tu? en ollama probé el de gpt oss 20b y me corrió, a tirones.
qwen 3VL, la versión de 8B parámetros. la probé en LM studio y corre... mal, pero se puede usar. va entre 3 a 5 tokens por segundo. no me animé a correr GPT os porque ajsjsjs me va a explotar todo
> wind-blaze escribió:
> qwen 3VL, la versión de 8B parámetros. la probé en LM studio y corre... mal, pero se puede usar. va entre 3 a 5 tokens por segundo. no me animé a correr GPT os porque ajsjsjs me va a explotar todo
bueno, al final me animé a probar gemma 3 12B. contrario a lo que esperaba... me sorprendió bastante. lo corrí quantizado a 4 bits, 16384 tokens de contexto, y necesité más de 16 gb de ram solo para cargar el modelo. aún así, en chat logra velocidades de 5 tokens por segundo estables, y puede describir imágenes. describe peor que qwen 3VL 8B, pero mucho más rápido. con la versión de qwen que probé procesar cada imagen tardaba 5 minutos, mientras que con gemma apenas minuto y medio más o menos. like si quieren que lo pruebe en mi laptop del govierno :V :V
Blue
Domingo, 18/01/2026 20:31:44Me gusta registrado.
Me expreso eso es muy brillante ante mis ojos ¿lo... cos?
No sé por qué pero me dio mucha ansiedad no sé qué!
¡Ah!
Antes era emoción, ahora es, es, desesperación es, quiero, no sé qué quiero!
Además mi mamá me regañó por algo que ni hice o sea no es justo.
¡Soy una mariposa!
> wind-blaze escribió:
> bueno, al final me animé a probar gemma 3 12B. contrario a lo que esperaba... me sorprendió bastante. lo corrí quantizado a 4 bits, 16384 tokens de contexto, y necesité más de 16 gb de ram solo para cargar el modelo. aún así, en chat logra velocidades de 5 tokens por segundo estables, y puede describir imágenes. describe peor que qwen 3VL 8B, pero mucho más rápido. con la versión de qwen que probé procesar cada imagen tardaba 5 minutos, mientras que con gemma apenas minuto y medio más o menos. like si quieren que lo pruebe en mi laptop del govierno :V :V
Interesante, si estoy recordando bien, gemma seria de google, no pense que permitia tener sus modelos locales. Escuche si recuerdo bien, que @Rayo habría probado modelos de openai en local, creo que la versión de 7 de parametros creo.
Hasta que versiones permiten google tener sus modelos locales y como se obtienen?
> Yostein-san escribió:
> Interesante, si estoy recordando bien, gemma seria de google, no pense que permitia tener sus modelos locales. Escuche si recuerdo bien, que @Rayo habría probado modelos de openai en local, creo que la versión de 7 de parametros creo.
> Hasta que versiones permiten google tener sus modelos locales y como se obtienen?
google ha sacado muchos modelos open source, como bien dices, se llaman jema. y no son ni la quinta parte de lo que gemini es jaja.
están liberados en udginface.
Blue
Domingo, 18/01/2026 23:06:26Pq tan poquito... Alarma dentro de 5 horas 45 minutos
> Blue escribió:
> Pq tan poquito... Alarma dentro de 5 horas 45 minutos
ya duermete
> Rayo escribió:
> > Blue escribió:
> > Pq tan poquito... Alarma dentro de 5 horas 45 minutos
>
> ya duermete
No puedo!
> Rayo escribió:
> > Blue escribió:
> > No puedo!
>
> pq no!
Euforia
> Rayo escribió:
> > Blue escribió:
> > Euforia
>
> cuentame más.
Ansiedad euforia energía no tengo sueño aaaa
> Blue escribió:
> Ansiedad euforia energía no tengo sueño aaaa
dyerne?
asmodeus
Lunes, 19/01/2026 07:49:04como cuando a la profe también le da flojera su clase. acá nos ves en la mesa del fondo jugando con ella black jack