Los modelos de lenguaje que hacen posible aplicaciones como ChatGPT o Copilot necesitan una enorme potencia de cálculo que requiere una compleja y costosa infraestructura de servidores y centros de datos.
OpenAI, la empresa detrás de ChatGPT, ha lanzado un nuevo modelo, GPT-4o Mini, que es mucho más barato y consume menos recursos que GPT-4o, su modelo más popular.
Es un lanzamiento que confirma una tendencia por parte de las grandes empresas de IA, desde la propia OpenAI hasta Google, pasando por Anthropic o Apple, hacia soluciones que pueden ejecutarse localmente en dispositivos pequeños, como un teléfono, o en servidores remotos pero con un consumo muy inferior.
Parte del problema que ha obligado a cambiar la estrategia es que el sistema original podía resultar un problema para empresas tratando de construir un negocio sobre estos modelos de lenguaje (que es como se conoce a estos motores de predicción capaces de comprender el lenguaje natural y responder de forma parecida a como lo haría un ser humano).
No hay comentarios:
Publicar un comentario