Een kijkje in de wereld van de Generative Search Assistant.
Een Zeticon Plugin.
Heeft u al van de nieuwe Zeticon plugin ‘Generative Search Assistant’ gehoord of heeft u hem misschien zelfs al gebruikt? Deze plugin, ontwikkeld in samenwerking met Vectr.Consulting en Zeticon, kan het zoeken naar informatie in uw bestanden aanzienlijk vereenvoudigen en versnellen! De assistent toont u in realtime waar en in welke originele bron u uw antwoord kunt terugvinden.

Generative Search Assistant
Maar hoe werkt deze Generative Search Assistant eigenlijk? Om de toenemende stroom aan informatie te kunnen verwerken wordt er – nog voordat de daadwerkelijke search plaatsvindt – gestart met het maken van een onderverdeling van alle beschikbare documenten. Deze semantisch logische onderverdelingen, ook wel ‘chunks’ genoemd, worden niet apart opgeslagen. In plaats daarvan krijgt elke chunk zijn eigen pointer zodat de gewenste informatie op een later tijdstip eenvoudig teruggevonden kan worden. Door middel van een sentence transformer model worden de tekstuele chunks omgezet in een numerieke representatie, ook wel embedding genoemd, die vervolgens wordt opgeslagen als vector in een ‘vectorstore’. Deze ‘vectorstore’ is een speciale database geoptimaliseerd voor het zoeken op basis van vectoren.
Vervolgens gaat de daadwerkelijke zoekopdracht echt beginnen. Wanneer er een vraag gesteld wordt aan de Generative Search Assistant zijn er twee manieren waarop deze op zoek gaat naar het beste antwoord op de vraag.
- Keyword Search:
De zoekopdracht wordt geanalyseerd en op basis van keywords worden zo veel mogelijk relevante chunks opgehaald uit de vectorstore. - Embedding Search:
Gebruikmakend van dezelfde tools als waarmee de documenten omgezet zijn wordt de zoekopdracht omgezet in een embedding, die vervolgens wordt vergeleken met alle chunks in de vectorstore om zo de chunks op te halen die semantisch het dichtste aanleunen bij de gestelde vraag.
Vervolgens worden de resultaten gecombineerd en wordt er met behulp van een ‘reranker’ gekozen welke chunks het relevantst zijn voor de zoekopdracht. Op basis van deze chunks en de originele vraag gaat de Generative Search Assistant vervolgens met behulp van een LLM (Large Language Models) op zoek naar het antwoord op de gestelde vraag. Dit antwoord wordt op een duidelijk leesbare manier weergegeven, vergezeld door een duidelijke bronvermelding binnen de eigen documenten.
Voordelen van de Generative Search Assistant
Werken met de Generative Search Assistant biedt u verschillende voordelen die uw zoekervaring significant kunnen verbeteren:
- Tijdsbesparing: U hoeft niet eindeloos te zoeken door mappen of bladeren in documenten; stel uw vraag aan de assistent en u ontvangt direct uw antwoord.
- Veilige segmentatie: Doordat uw documenten via contexten worden gescheiden, krijgt u alleen relevante informatie te zien, wat de efficiëntie van de assistent verhoogt.
- Menselijke interactie: Het LLM levert antwoorden op een natuurlijke, leesbare manier, zonder dat u kennis nodig hebt van complexe zoekopdrachten of query-talen.
Large Language Model (LLM)
Om te begrijpen hoe chunks worden omgezet tot een zinnig antwoord is het goed om te weten wat een LLM is en wat het precies doet. Een Large Language Model (LLM) is een vorm van Artificiële Intelligentie die getraind is op enorme hoeveelheden tekst. Hierdoor zijn deze modellen in staat om ‘almost human’ teksten te genereren, vragen te beantwoorden en snel complexe taalpatronen te begrijpen. Dit alles is mogelijk doordat LLM’s gebruik maken van deep learning om patronen te herkennen in onze taal. Deze patronen worden vervolgens gebruikt om relevante antwoorden en suggesties te genereren. Hierbij geldt, hoe groter de dataset waarop het model getraind is, hoe beter de prestaties.
Door gebruik te maken van een vooraf getraind model kan de Generative Search Assistant in realtime snelle en accurate antwoorden geven op elke vraag gesteld over de inhoud van de opgeslagen documenten.
Met deze combinatie van semantisch zoeken en AI-gestuurde antwoorden maakt de Generative Search Assistant het eenvoudiger dan ooit om snel en betrouwbaar de juiste informatie te vinden.
Wilt u weten hoe deze technologie uw werkprocessen kan verbeteren? Neem contact met ons op, dan kijken we samen hoe AI u kan ondersteunen!
Zeticon is een Belgisch software-en consultancybedrijf dat gespecialiseerd is in Intelligent Informatiemanagement en archivering.
Zeticon transformeert jouw versnipperde en slapende data in gecentraliseerde en intelligente informatie. Dankzij de Open REST-API integreert ons platform naadloos met de dominante applicaties (zoals ERP, CRM, DMS, …) binnen uw organisatie. Als pionier in Intelligent Information Management en Archiving centraliseren wij al uw bedrijfsinformatie op één veilig platform en maken het toegankelijk waar en wanneer u het nodig hebt waardoor de productiviteit toeneemt, processen en diensten verbeteren en risico’s in uw hele onderneming afnemen.
Meer informatie op zeticon.com
Large Language Model (LLM)
Om te begrijpen hoe chunks worden omgezet tot een zinnig antwoord is het goed om te weten wat een LLM is en wat het precies doet. Een Large Language Model (LLM) is een vorm van Artificiële Intelligentie die getraind is op enorme hoeveelheden tekst. Hierdoor zijn deze modellen in staat om ‘almost human’ teksten te genereren, vragen te beantwoorden en snel complexe taalpatronen te begrijpen. Dit alles is mogelijk doordat LLM’s gebruik maken van deep learning om patronen te herkennen in onze taal. Deze patronen worden vervolgens gebruikt om relevante antwoorden en suggesties te genereren. Hierbij geldt, hoe groter de dataset waarop het model getraind is, hoe beter de prestaties.
Door gebruik te maken van een vooraf getraind model kan de Generative Search Assistant in realtime snelle en accurate antwoorden geven op elke vraag gesteld over de inhoud van de opgeslagen documenten.
Met deze combinatie van semantisch zoeken en AI-gestuurde antwoorden maakt de Generative Search Assistant het eenvoudiger dan ooit om snel en betrouwbaar de juiste informatie te vinden.
Wilt u weten hoe deze technologie uw werkprocessen kan verbeteren? Neem contact met ons op, dan kijken we samen hoe AI u kan ondersteunen!
Zeticon is een Belgisch software-en consultancybedrijf dat gespecialiseerd is in Intelligent Informatiemanagement en archivering.
Zeticon transformeert jouw versnipperde en slapende data in gecentraliseerde en intelligente informatie. Dankzij de Open REST-API integreert ons platform naadloos met de dominante applicaties (zoals ERP, CRM, DMS, …) binnen uw organisatie. Als pionier in Intelligent Information Management en Archiving centraliseren wij al uw bedrijfsinformatie op één veilig platform en maken het toegankelijk waar en wanneer u het nodig hebt waardoor de productiviteit toeneemt, processen en diensten verbeteren en risico’s in uw hele onderneming afnemen.
Meer informatie op zeticon.com