Nvidia voorziet zijn lokaal draaiend alternatief voor chatbots van een flinke upgrade. ChatRTX zal meer LLM’s ondersteunen en eenvoudiger overweg kunnen met foto’s.
Nvidia breidt de capaciteiten van ChatRTX uit. De toepassing ondersteunt voortaan meer LLM’s en spraak, en kan beter overweg met je foto’s. ChatRTX is een interessant alternatief voor klassieke generatieve AI-chatbots, aangezien de toepassing lokaal draait. Wie een voldoende krachtige pc heeft (lees: uitgerust met een stevige Nvidia-GPU) kan zo praten met zijn eigen data aan de hand van een LLM, zonder dat data of query’s naar de cloud gaan.
Spraak en foto’s
ChatRTX ondersteunt LLM’s van Google, ChatGLM3 en Gemma. Mistral en Llama 2 behoorden al tot de mogelijkheden. De tool werkt met je eigen lokale data, zodat je daar vragen over kan stellen. Dat hoeft niet schriftelijk, dankzij de nieuwe ondersteuning van Whisper. Daarmee worden gesproken vragen omgezet in query’s. ChatRTX ondersteunt nu meerdere talen.
Ook met je foto’s kan ChatRTX beter overweg. De integratie van OpenAI’s Contrastive Language-Image Pre-training zorgt ervoor dat je meteen door je afbeeldingen kan zoeken, zonder dat daar metadata-labeling voor nodig is.
ChatRTX heette vroeger Chat with RTX. Nvidia omschrijft de tool nog steeds als een demo. Die demo toont wel wat de mogelijke toekomst van de AI-pc kan zijn, door heel krachtige capaciteiten naar de lokale computer te brengen zonder tussenkomst van de cloud.