No solo no casarse con uno, si no que también se pueden hacer consultas similares o continuar la conversacion con otra LLM para obtener resultados distintos (mejores o peores).
Por acá un usuario que antes pagaba por ChatGPT y ahora lo hace con Claude.
ChatGPT me resulta mejor en tema conversacional, Claude en código, Perplexity para investigaciones más a fondo (tipo estudio de mercados o desarrollar profundamente alguna idea que tenga).
Copilot lo uso más que nada para encontrar soluciones a los problemas que tenga con los soft de Microsoft jaja
Y Gemini nunca me terminó de cerrar, pero lo uso en el mail (google apps) para redactar, en eso anda muy muy bien!
Grok me gusta para hinchar los huevos, hay que reconocer que es original.
Es momento de aprovechar la competencia entre AI - Opciones de LLM gratuitos

Estamos en un momento genial, cuando en una industria hay competencia nosotros nos vemos favorecidos, cuando quedan pocos jugadores, todo se vuelve oligopólico/monopólico y nos empiezan a cobrar una fortuna.
En el caso de los servicios de Inteligencia Artificial con LLMs está pasando esto, tenemos mucha competencia entre grandes empresas y este es el momento para aprovecharlos, aquí les hago un repaso de los servicios gratuitos, o más bien accesibles hasta un límite, que tenemos a nuestra disposición...
LLM para todos
En este artículo me voy a dedicar solamente a los LLM, pero hay muchos modelos de imagen y video gratuitos que están apareciendo hoy en día, eso sí, "gratuitos" significa que son libres y podrías descargarlos, el hecho de poder usarlos no es nada libre.
En cambio estos LLM, modelos de lenguaje, ofrecen todos un servicio gratuito online, en la mayoría de los casos el "pago" viene después de una cierta cantidad de uso, especialmente para aquellos que hacen un uso constante y requieren muchos tokens.
Los tokens véanlos como si fuese un medidor de la cantidad tanto de lo que se pide como lo que se responde (estoy simplificando mucho esto), así que después de cierta cantidad de Tokens es normal que te pidan que pagues... pero no estás obligado a usar uno solo!
Empecemos con un pequeño repaso, no voy a juzgar las virtudes de cada uno ya que las comparativas suelen basarse en tests muy complejos que no le sirven a nadie, pero sí hay características que pueden importarte más que otras.
Qwen
Empecemos por las opciones chinas, no por nada en particular, las tenía primero en la lista, primero Qwen que es un modelo Open Source que pertenece a Alibaba, mucho dinero aquí, mucha potencia en servidores también.
Como todo producto de origen chino digital los datos de lo que escribas irán a parar al gobierno de China, si ese no es tu problema, perfecto, hay mucho para hacer con Qwen que ofrece sus cuatro mejores modelos incluyendo modelos de razonamiento, de pensamiento más lento pero analizado, con búsqueda para justificar la respuesta, etc. Incluye creación de imágenes que no todos suelen ofrecer aunque no sea precisamente lo mejor del mundo en este sentido.
Los modelos más pesados tienen un contexto de unos 32k tokens de entrada, los más rápidos como el turbo hasta 1M de tokens. Por el momento es totalmente gratuito.
DeepSeek
Obviamente si hablamos de China tenemos que hablar de la estrella de los modelos de razonamiento, DeepSeek, un poco exagerado el hype que se le dio ante su lanzamiento en el cual los creadores "versearon" sobre lo barato que había sido su entrenamiento sin aclarar mucho.
Más allá de eso su capacidad es MUY buena y también es un modelo que podés descargar y usar en un LLM local, algo que con mucha VRAM se puede usar diariamente, no es mi caso donde sólo puedo usar una versión capada del mismo.
En la versión web podemos activar el razonamiento profundo y la búsqueda. La interfaz es bien simple, no ofrece imágenes, pero sí adjuntar archivos para analizar.
Claude
Claude es la opción de Anthropic, de todos estos el único por el que pago su costo ya que me sirve, y mucho, para programar. Con éste creé La Comunidad.
Es de código cerrado y en ese sentido "oculta" su desarrollo, es super pesado a nivel servidor así que es sabido que su costo es elevado, ahora le agregaron dos modos de pensamiento para que pueda dedicar más tiempo a razonar la resolución de problemas. El actual modelo es el Sonnet 3.7 y el resultado que he obtenido es MUY bueno.
Es gratuito hasta que te dice que no tiene más tokens para regalarte y que vuelvas en unas horas, eso apesta, claro, pero la otra opción es pagar 20 dólares por mes. Lo que no me gusta es que el uso de API hay que pagarlo por otro lado con otro usuario developer, una tontería administrativa.
ChatGPT
Obviamente el más usado por todos es ChatGPT de OpenAI, no lo quise mencionar primero para que supieran que existen muchas otras opciones muy buenas.
En este caso el modelo es GPT-4-Turbo salvo que pagues y te permita desplegar las opciones de más modelos, estos son cada vez más y más complejos de entender para qué serviría cada uno.
También le agregaron búsqueda en la web y el desarrollo del razonamiento, algo que ahora es base en casi todos desde que DeepSeek los obligó a mejorar.
Es muy útil el modo voz para hacerlo conversacional y también genera imágenes en el modelo pago, pero el resultado es muy pobre para mi gusto (prefiero ir con modelos de imágenes separados).
Como también es de pago lo "gratis" dura hasta que ya no dura más y te avisa que para seguir tenés que desempolvar la tarjeta de crédito. Si lo usás todos los días tiene sentido.
Perplexity
El uso de Perplexity perdió un poco de tracción ultimamente, en su momento fue el primero en usar búsqueda web para el razonamiento y no quedarse solamente con el modelo entrenado.
Esto lo usa muy bien para citar, así que para trabajos de investigación o periodísticos estaba muy bueno en ese sentido.
Actualmente ofrece tres consultas complejas antes de pedirte que pases al pago, lo que en comparación con los otros es "poco", claro, porque no hacemos las cuentas de cuánto cuesta de servidor 😁
Creo que de todos es el que mejor se encuentra conectado con la "realidad" y no tan dependiente del modelo, pero eso a juzgar por cada uno
Mistral
Por otra parte Europa tiene su propio LLM, no es que todo quedó en EEUU y China, bueno, casi todo, pero Mistral es la opción para aquellos que le temen más al mal uso de nuestra información personal.
Mistral es, además, otro modelo Open Source que pueden descargar y usar en su propia PC si cuentan con los recursos adecuados.
En su última versión ofrece generación de imágenes, búsqueda web, canvas e intérprete de código, y, si bien es abierto, también es de pago cuando se usa demasiado. Eso sí, no te limitan los mejores modelos para los que pagan como hace ChatGTP sino que te da lo mejor que tienen.
No casarse con uno solo
La idea de escribir este post era mostrarles la variedad que hay en este momento, en vez de quedarnos atados a ChatGPT como si fuera lo único existente.
No incluí Llama de Meta porque me cae mal Zuckerberg 😁, pero hay que reconocerle que su modelo Open Source permitió a muchos otros existir y funciona bastante bien además de poder ser usado en modo local si tenés suficiente hardware.
También Google y Microsoft tienen sus propias ofertas, pero ¿Por qué derivarles más público? Probemos otras opciones antes de que nos fuercen hasta en la sopa un prompt de AI que nadie pidió. Tengan en cuenta que Gemini se lo van a encontrar en el teléfono y Copilot ya está por todos lados en Windows.
Ah, y desde ya que está Grok de X/Twitter, pero como es del imbécil de Elonio no se lo promociono, aunque tengo que reconocer que es muy bueno.
Y, como recomendación general, nunca se casen con un sólo modelo, usen dos, tres, porque tarde o temprano ese que te gustaba te lo empiezan a cobrar MUY CARO y ya no es tan divertido.
Otros posts que podrían llegar a gustarte...
Comentarios
-
Excelente post! Lo venía esperando y de a poco me fui animando a probar varios de todos esos. De hecho creo que la mayoría y como decís, no casarse con ninguno es la clave.
Mi uso quedó así:
Claude para iniciar y estructurar proyectos de código. (hasta que me pide el pago)
Grok para continuar el proyecto (Pide el pago pero muuuuuuuucho mas tarde)
ChatGPT para conversar un rato nomas.
Algo que probé fue https://msty.app que permite ver las respuestas en simultáneo de varias IA a un mismo prompt y me pareció útil cuando no sé por cuál decidirme jaja
-
Toco de oído sobre este tema :| , ¿Para correr en modo local no es mejor tener un procesador NPU (Neural Processing Unit) instalado?, recién están saliendo del horno varias compañías para incorporarlos en los chips y van como piña :D junto con las nuevas GPU que aceleran aún más los procesos.
-
hacé la cuenta de lo que te sale una notebook nueva, de este año, con un NPU maso, para qué te sirve y cuánto de diferencia vas a tener con una PC Gamer con una 4090 y vas a ver que no está nada mal la idea de un buen GPU, especialmente porque el 100% está diseñado para correr en el GPU y no más del 5% del software usa el NPU, así que ni lo dudaría, GPU primero hasta que los NPU sean masivos (bro) y no una cosa extraña en un mercado portable-exclusivo (para desktop casi no hay nada justamente porque compite con los GPU discretos)
-
eeeeeee no me sesgues!!! :D
Excelente review, salvo por el hecho de no comentar mas a fondo Llama y Grok.
Se agradece!