Executar large language models (LLMs) em PCs localmente está se tornando cada vez mais popular no mundo todo. Em resposta, a AMD está introduzindo seu próprio aplicativo LLM, Gaia , um projeto de código aberto para executar LLMs locais em qualquer máquina Windows.
O Gaia foi projetado para executar vários modelos LLM em PCs Windows e apresenta otimizações de desempenho adicionais para máquinas equipadas com seus processadores Ryzen AI (incluindo o Ryzen AI Max 395+ ). O Gaia usa o Lemonade SDK de código aberto da ONNX TurnkeyML para inferência LLM. Os modelos podem supostamente se adaptar para diferentes propósitos com o Gaia, incluindo sumarização e tarefas complexas de raciocínio.
O novo projeto de código aberto da AMD funciona fornecendo tarefas específicas de LLM por meio do Lemonade SDK e servindo-as em vários tempos de execução. O Lemonade supostamente "expõe um serviço da web LLM que se comunica com o aplicativo GAIA... por meio de uma API Rest compatível com OpenAI". O próprio Gaia atua como um agente alimentado por IA que recupera e processa dados. Ele também "vetoriza conteúdo externo (por exemplo, GitHub, YouTube, arquivos de texto) e o armazena em um índice de vetor local".
Em outras palavras, o Gaia pode aprimorar as consultas dos usuários antes que o LLM as processe, supostamente melhorando a precisão e a relevância das respostas.
O novo chatbot de IA tem dois instaladores: um instalador convencional que funciona em qualquer PC Windows (seja esse PC com hardware AMD ou não) e um instalador "Híbrido" otimizado para PCs Ryzen AI. Este último permite especificamente que o Gaia execute cálculos em uma unidade de processamento neural ( NPU ) de CPU Ryzen AI e gráficos integrados para melhor desempenho.
Gaia é o mais novo concorrente no novo mar de aplicativos LLM localizados, incluindo LM Studio e ChatRTX . Executar um LLM localmente tem vantagens significativas sobre soluções baseadas em nuvem, incluindo maior segurança , menor latência e, em alguns casos, melhor desempenho, dependendo do hardware do sistema. O melhor de tudo é que os LLMs locais funcionam offline e não exigem conexão com a internet.
Fonte: tomshardware
Nenhum comentário:
Postar um comentário