{"id":3910,"date":"2025-06-23T16:25:41","date_gmt":"2025-06-23T14:25:41","guid":{"rendered":"https:\/\/exceltic.com\/?p=3910"},"modified":"2026-03-19T13:28:24","modified_gmt":"2026-03-19T12:28:24","slug":"generative-ia-mit-voller-kontrolle-kleine-slms-sprachmodelle-und-quantisierung-2","status":"publish","type":"post","link":"https:\/\/exceltic.serquo.com\/de\/generative-ia-mit-voller-kontrolle-kleine-slms-sprachmodelle-und-quantisierung-2\/","title":{"rendered":"Generative KI mit vollst\u00e4ndiger Kontrolle: Kleine Sprachmodelle (SLMs) und Quantisierung"},"content":{"rendered":"<p class=\"has-medium-font-size\">Die Generation KI hat die Art und Weise, wie wir mit Technologie interagieren, ver\u00e4ndert, doch ihr weit verbreiteter Einsatz bringt Herausforderungen in Bezug auf Datenschutz, Governance und Ressourceneffizienz mit sich. In diesem Artikel untersuchen wir, wie kleine Sprachmodelle (Small Language Models, SLMs) eine kontrolliertere und effizientere Alternative zu gro\u00dfen Sprachmodellen (Large Language Models, LLMs) bieten und wie die Modellquantifizierung ihre Leistung weiter verbessern kann.<\/p>\n\n\n\n<h2 class=\"wp-block-heading has-tertiary-color has-text-color has-link-color has-large-font-size wp-elements-e76b0c190fbc11e2b681060fe0464846\">Was sind SLMs?<\/h2>\n\n\n\n<p class=\"has-medium-font-size\">Small Language Models (SLMs) sind trainierte Sprachmodelle mit einer \u00e4hnlichen Architektur wie LLMs, aber mit einer viel geringeren Anzahl von Parametern f\u00fcr die Verarbeitung nat\u00fcrlicher Sprache, das Verstehen und die Erstellung von Inhalten.<\/p>\n\n\n\n<p class=\"has-medium-font-size\">Dies sind die Vorteile der Sorten:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li class=\"has-medium-font-size\"><strong>Geringer Ressourcenverbrauch (RAM\/CPU\/GPU)<\/strong>Sie ben\u00f6tigen weniger Rechenleistung und lassen sich daher leichter auf g\u00fcnstigerer Hardware implementieren.<\/li>\n\n\n\n<li class=\"has-medium-font-size\"><strong>St\u00e4rkere Kontrolle<\/strong>kann sowohl in lokalen als auch in privaten Umgebungen verwendet werden, was <\/li>\n\n\n\n<li class=\"has-medium-font-size\">mehr Sicherheit und eine bessere Verwaltung gew\u00e4hrleistet.<\/li>\n\n\n\n<li class=\"has-medium-font-size\"><strong>Erh\u00f6hte Geschwindigkeit bei der Schlussfolgerung<\/strong>Die Antworten werden schneller und effizienter generiert, da es weniger Parameter gibt.<\/li>\n<\/ul>\n\n\n\n<p class=\"has-medium-font-size\">Beispiele f\u00fcr bekannte SLMs: <\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li class=\"has-medium-font-size\"><strong>Mistral 7B<\/strong><\/li>\n\n\n\n<li class=\"has-medium-font-size\"><strong>Phi-2<\/strong> von Microsoft (~2,7B Parameter)<\/li>\n\n\n\n<li class=\"has-medium-font-size\"><strong>TinyLLaMA<\/strong><\/li>\n\n\n\n<li class=\"has-medium-font-size\"><strong>Gemma 2B<\/strong> von Google<\/li>\n<\/ul>\n\n\n\n<h2 class=\"wp-block-heading has-large-font-size\">Quantifizierung des Modells: Downsizing ohne genaue Sterblichkeit <\/h2>\n\n\n\n<p class=\"has-medium-font-size\">Eines der Haupthindernisse beim Training von KI-Modellen ist ihre Gr\u00f6\u00dfe und die erforderliche Rechenleistung. Hier spielt die Quantisierung eine Schl\u00fcsselrolle. Diese Technik verringert die Gr\u00f6\u00dfe des Modells, indem hochpr\u00e4zise Gewichte (FP32, FP16) in niedrigpr\u00e4zise Gewichte (INT8, INT4) umgewandelt werden, ohne die Leistung des Modells wesentlich zu beeintr\u00e4chtigen. Zu den Vorteilen geh\u00f6ren:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li class=\"has-medium-font-size\"><strong>Geringere Speichernutzung<\/strong>Erm\u00f6glicht die Speicherung und Verwaltung von Modellen auf Ger\u00e4ten mit begrenzter Kapazit\u00e4t.<\/li>\n\n\n\n<li class=\"has-medium-font-size\"><strong>Erh\u00f6hte GPU\/CPU-Effizienz:<\/strong> Reduziert die CPU-Belastung durch Beschleunigung der mathematischen Operationen.<\/li>\n\n\n\n<li class=\"has-medium-font-size\"><strong>Beschleunigte Inferenz:<\/strong> Die Modelle k\u00f6nnen schneller reagieren, wodurch die Genauigkeit der Berechnungen abnimmt.<\/li>\n<\/ul>\n\n\n\n<h2 class=\"wp-block-heading has-large-font-size\">Vergleich von SLM und LLM<\/h2>\n\n\n\n<p class=\"has-medium-font-size\">W\u00e4hrend sich LLM als leistungsf\u00e4higes Werkzeug erwiesen hat, bietet SLM in Situationen, in denen Effizienz und Datenschutz von gr\u00f6\u00dfter Bedeutung sind, wichtige Vorteile. Im Folgenden vergleichen wir die beiden Ans\u00e4tze:<\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"741\" height=\"426\" src=\"https:\/\/exceltic.com\/wp-content\/uploads\/2025\/06\/tabla-comparacion-SLM-y-LLM.png\" alt=\"\" class=\"wp-image-3911\" srcset=\"https:\/\/exceltic.serquo.com\/wp-content\/uploads\/2025\/06\/tabla-comparacion-SLM-y-LLM.png 741w, https:\/\/exceltic.serquo.com\/wp-content\/uploads\/2025\/06\/tabla-comparacion-SLM-y-LLM-300x172.png 300w, https:\/\/exceltic.serquo.com\/wp-content\/uploads\/2025\/06\/tabla-comparacion-SLM-y-LLM-18x10.png 18w\" sizes=\"auto, (max-width: 741px) 100vw, 741px\" \/><\/figure>\n\n\n\n<h2 class=\"wp-block-heading has-large-font-size\">Recovery Augmented Generation (RAG)<\/h2>\n\n\n\n<p class=\"has-medium-font-size\">Die Retrieval Augmented Generation (RAG)-Technik wird eingesetzt, um die Genauigkeit und Kontextualisierung von Modellen zu verbessern. Diese Methode maximiert die Antworten durch den Erhalt von Informationen aus zus\u00e4tzlichen Quellen und verbessert den Kontext vor der Texterstellung. Ihre Struktur besteht aus:<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li class=\"has-medium-font-size\"><strong>Chunking<\/strong>Fragmentierung der Daten in handhabbare Teile.<\/li>\n\n\n\n<li class=\"has-medium-font-size\"><strong>Einbettung von Dokumenten<\/strong>Konvertierung von Text in einen numerischen Vektor.<\/li>\n\n\n\n<li class=\"has-medium-font-size\"><strong>Vektordatenbank (VectorDB)<\/strong>: <strong>)<\/strong>ist eine Datenbank, die relevante Daten speichert und abruft.<\/li>\n\n\n\n<li class=\"has-medium-font-size\"><strong>Informationsabfrage<\/strong>Bei einer Abfrage findet es die relevantesten Informationen.<\/li>\n\n\n\n<li class=\"has-medium-font-size\"><strong>Generierung von Antworten<\/strong>Synthese kontextbezogener Informationen zur Verbesserung der Ergebnisse des Modells.<\/li>\n<\/ol>\n\n\n\n<h2 class=\"wp-block-heading has-large-font-size\">Implementierung von SLMs + RAG: Ein effizientes und sicheres Modell<\/h2>\n\n\n\n<p class=\"has-medium-font-size\">Die Kombination von SLMs mit der RAG-Strategie erm\u00f6glicht die Schaffung hocheffizienter und kontrollierbarer generativer KI-Systeme. Mit dieser Architektur k\u00f6nnen Organisationen optimierte Modelle verwenden, die eine gr\u00f6\u00dfere Privatsph\u00e4re bei geringerem Ressourcenverbrauch gew\u00e4hrleisten.<\/p>\n\n\n\n<h3 class=\"wp-block-heading has-medium-large-font-size\">Wichtigste Vorteile:<\/h3>\n\n\n\n<ul class=\"wp-block-list\">\n<li class=\"has-medium-font-size\">&nbsp;<strong>Optimierte Nutzung von Daten<\/strong>Die Einbeziehung der Informationsbeschaffung erm\u00f6glicht genauere und fundiertere Antworten.<\/li>\n\n\n\n<li class=\"has-medium-font-size\"><strong>Volle Kontrolle \u00fcber das Modell:<\/strong> macht die Dienste von Drittanbietern \u00fcberfl\u00fcssig und erm\u00f6glicht die Anpassung des KI-Verhaltens.<\/li>\n\n\n\n<li class=\"has-medium-font-size\"><strong>Ausf\u00fchrung in eingeschr\u00e4nkten Umgebungen:<\/strong> Aufgrund ihrer Quantifizierbarkeit und geringen Gr\u00f6\u00dfe k\u00f6nnen SLMs auf Endger\u00e4ten oder lokalen Servern eingesetzt werden.<\/li>\n<\/ul>\n\n\n\n<h2 class=\"wp-block-heading has-large-font-size\">Basisarchitektur mit Quantified Model, LangChain, RAG und FastAPI<\/h2>\n\n\n\n<p class=\"has-medium-font-size\">Die folgende Architektur kann verwendet werden, um eine effiziente SML-Umgebung zu schaffen:<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li class=\"has-medium-font-size\"><strong>Laden des quantisierten Modells:<\/strong> ein Modell, das zuvor in INT8 oder INT4 quantifiziert wurde, wird verwendet, um seine Leistung zu optimieren.<\/li>\n\n\n\n<li class=\"has-medium-font-size\"><strong>LangChain f\u00fcr die Verwaltung von Eingabeaufforderungen<\/strong>LangChain: LangChain erm\u00f6glicht es, die Anfragen des Modells zu strukturieren und zu erweitern.<\/li>\n\n\n\n<li class=\"has-medium-font-size\"><strong>Einsatz von RAG f\u00fcr eine verbesserte Einziehung<\/strong>a: nutzt Vektordatenbanken, um den Kontext der Antworten zu verbessern.<\/li>\n\n\n\n<li class=\"has-medium-font-size\"> <strong>REST API mit FastAPI:<\/strong> Dieses Modell erkl\u00e4rt, wie man eine API verwendet, um die Integration mit anderen Anwendungen zu erleichtern.<\/li>\n<\/ol>\n\n\n\n<h3 class=\"wp-block-heading has-medium-large-font-size\">Beispiel-Code:<\/h3>\n\n\n\n<p class=\"has-medium-font-size\">from fastapi import FastAPI, HTTPException<\/p>\n\n\n\n<p class=\"has-medium-font-size\">from langchain.chains import RetrievalQA<\/p>\n\n\n\n<p class=\"has-medium-font-size\">from langchain.vectorstores import FAISS<\/p>\n\n\n\n<p class=\"has-medium-font-size\">from langchain.embeddings import HuggingFaceEmbeddings<\/p>\n\n\n\n<p class=\"has-medium-font-size\">from langchain.llms import HuggingFacePipeline<\/p>\n\n\n\n<p class=\"has-medium-font-size\">from transformers import AutoModelForCausalLM, AutoTokenizer, pipeline<\/p>\n\n\n\n<p class=\"has-medium-font-size\">Importfackel<\/p>\n\n\n\n<p><\/p>\n\n\n\n<p class=\"has-medium-font-size\"># Lastquantisiertes Modell<\/p>\n\n\n\n<p class=\"has-medium-font-size\">tokenizer = AutoTokenizer.from_pretrained(\"model-quantified\")<\/p>\n\n\n\n<p class=\"has-medium-font-size\">model = AutoModelForCausalLM.from_pretrained(\"model-quantified\", torch_dtype=torch.int8)<\/p>\n\n\n\n<p class=\"has-medium-font-size\">pipe = pipeline(\"text-generation\", model=model, tokenizer=tokenizer)<\/p>\n\n\n\n<p class=\"has-medium-font-size\">llm = HuggingFacePipeline(pipeline=pipe)<\/p>\n\n\n\n<p><\/p>\n\n\n\n<p class=\"has-medium-font-size\"># Lastvektor-Datenbank f\u00fcr RAG<\/p>\n\n\n\n<p class=\"has-medium-font-size\">Einbettungen = HuggingFaceEmbeddings(\"sentence-transformers\/all-MiniLM-L6-v2\")<\/p>\n\n\n\n<p class=\"has-medium-font-size\">db = FAISS.load_local(\"ruta_vector_db\", Einbettungen)<\/p>\n\n\n\n<p class=\"has-medium-font-size\">Retriever = db.as_retriever()<\/p>\n\n\n\n<p class=\"has-medium-font-size\">qa_chain = RetrievalQA(llm=llm, retriever=retriever)<\/p>\n\n\n\n<p class=\"has-medium-font-size\">app = FastAPI()<\/p>\n\n\n\n<p class=\"has-medium-font-size\">@app.post(\"\/generate\")<\/p>\n\n\n\n<p class=\"has-medium-font-size\">def generate_response(prompt: str, max_length: int = 100):<\/p>\n\n\n\n<p class=\"has-medium-font-size\">&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; versuchen:<\/p>\n\n\n\n<p class=\"has-medium-font-size\">&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Antwort = qa_chain.run(prompt)<\/p>\n\n\n\n<p class=\"has-medium-font-size\">&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; return {\"Antwort\": Antwort}<\/p>\n\n\n\n<p class=\"has-medium-font-size\">&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; au\u00dfer Ausnahme wie e:<\/p>\n\n\n\n<p class=\"has-medium-font-size\">&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; raise HTTPException(status_code=500, detail=str(e))<\/p>\n\n\n\n<p class=\"has-medium-font-size\">if __name__ == \"__main__\":<\/p>\n\n\n\n<p class=\"has-medium-font-size\">&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; importieren uvicorn<\/p>\n\n\n\n<p class=\"has-medium-font-size\">&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; uvicorn.run(app, host=\"0.0.0.0.0\u2033, port=8000)<\/p>\n\n\n\n<h2 class=\"wp-block-heading has-large-font-size\">Erl\u00e4uterung<\/h2>\n\n\n\n<h3 class=\"wp-block-heading has-medium-large-font-size\">Laden des quantisierten Modells<\/h3>\n\n\n\n<p class=\"has-medium-font-size\"><em>tokenizer = AutoTokenizer.from_pretrained(\"model-quantified\")<\/em><\/p>\n\n\n\n<p class=\"has-medium-font-size\"><em>model = AutoModelForCausalLM.from_pretrained(\"model-quantified\", torch_dtype=torch.int8)<\/em><\/p>\n\n\n\n<p class=\"has-medium-font-size\"><em>pipe = pipeline(\"text-generation\", model=model, tokenizer=tokenizer)<\/em><\/p>\n\n\n\n<p class=\"has-medium-font-size\"><em>llm = HuggingFacePipeline(pipeline=pipe)<\/em><\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li class=\"has-medium-font-size\"><strong>AutoTokenizer.from_pretrained(\"model-quantified\"): <\/strong>L\u00e4dt den Tokeniser des quantisierten Modells.<\/li>\n\n\n\n<li class=\"has-medium-font-size\"><strong> AutoModelForCausalLM.from_pretrained(\"model-quantified\", torch_dtype=torch.int8): <\/strong>L\u00e4dt das quantisierte Modell in int8-Pr\u00e4zision, was den Speicherverbrauch reduziert und die Inferenz beschleunigt.<\/li>\n\n\n\n<li class=\"has-medium-font-size\"><strong>pipeline(\"text-generation\", model=model, tokenizer=tokenizer):<\/strong> Erstellt eine Textgenerierungspipeline auf der Grundlage des quantifizierten Modells.<\/li>\n\n\n\n<li class=\"has-medium-font-size\"><strong>HuggingFacePipeline(pipeline=pipe):<\/strong> Integration der Pipeline in LangChain zur weiteren Verwendung in der RAG-Architektur.<\/li>\n<\/ul>\n\n\n\n<h3 class=\"wp-block-heading has-medium-large-font-size\">2. Retrieval-Augmented Generation (RAG)-Konfiguration:<\/h3>\n\n\n\n<p class=\"has-medium-font-size\"><em>Einbettungen = HuggingFaceEmbeddings(\"sentence-transformers\/all-MiniLM-L6-v2\")<\/em><\/p>\n\n\n\n<p class=\"has-medium-font-size\"><em>db = FAISS.load_local(\"ruta_vector_db\", Einbettungen)<\/em><\/p>\n\n\n\n<p class=\"has-medium-font-size\"><em>Retriever = db.as_retriever()<\/em><\/p>\n\n\n\n<p class=\"has-medium-font-size\"><em>qa_chain = RetrievalQA(llm=llm, retriever=retriever<strong>)<\/strong><\/em><\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li class=\"has-medium-font-size\"><strong>HuggingFaceEmbeddings(\"sentence-transformers\/all-MiniLM-L6-v2\"): <\/strong>Verwendet ein Einbettungsmodell (MiniLM-L6-v2) zur Umwandlung von Text in Vektordarstellungen.<\/li>\n\n\n\n<li class=\"has-medium-font-size\"><strong>FAISS.load_local(\"path_vector_db\", Einbettungen): <\/strong>L\u00e4dt eine FAISS-Vektordatenbank mit zuvor generierten Einbettungen.<\/li>\n\n\n\n<li class=\"has-medium-font-size\"><strong>db.as_retriever():<\/strong> Sie verwandelt die Datenbank in eine Suchmaschine, um relevante Informationen zu finden.<\/li>\n\n\n\n<li class=\"has-medium-font-size\"><strong>RetrievalQA(llm=llm, retriever=retriever)<\/strong>Kombiniert quantifizierte Sprachmodellierung mit Informationsbeschaffung zur Verbesserung der Antwortgenerierung.<\/li>\n<\/ul>\n\n\n\n<h3 class=\"wp-block-heading has-medium-large-font-size\">3. Erstellen der API mit FastAPI:<\/h3>\n\n\n\n<p class=\"has-medium-font-size\"><em>app = FastAPI()<\/em><\/p>\n\n\n\n<p class=\"has-medium-font-size\"><em>@app.post(\"\/generate\")<\/em><\/p>\n\n\n\n<p class=\"has-medium-font-size\"><em>def generate_response(prompt: str, max_length: int = 100):<\/em><\/p>\n\n\n\n<p class=\"has-medium-font-size\"><em>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; versuchen:<\/em><\/p>\n\n\n\n<p class=\"has-medium-font-size\"><em>&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Antwort = qa_chain.run(prompt)<\/em><\/p>\n\n\n\n<p class=\"has-medium-font-size\"><em>&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; return {\"Antwort\": Antwort}<\/em><\/p>\n\n\n\n<p class=\"has-medium-font-size\"><em>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; au\u00dfer Ausnahme wie e:<\/em><\/p>\n\n\n\n<p class=\"has-medium-font-size\"><em>&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; raise HTTPException(status_code=500, detail=str(e))<\/em><\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li class=\"has-medium-font-size\"><strong>FastAPI(): <\/strong>Erstellen Sie eine REST-API, um das RAG-Modell und die Funktionalit\u00e4t zug\u00e4nglich zu machen.<strong>.<\/strong><\/li>\n\n\n\n<li class=\"has-medium-font-size\"><strong>@app.post(\"\/generate\"):<\/strong> Definiert einen \/generate-Endpunkt, der POST-Anfragen mit einer Eingabeaufforderung annimmt.<\/li>\n\n\n\n<li class=\"has-medium-font-size\"><strong>qa_chain.run(prompt): <\/strong>Es verwendet eine Kombination aus Informationsbeschaffung (RAG) und Textgenerierung, um zu antworten.<\/li>\n\n\n\n<li class=\"has-medium-font-size\"><strong>Behandlung von Ausnahmen:<\/strong> Wenn ein Fehler auftritt, wird ein HTTP 500-Code mit der Fehlermeldung zur\u00fcckgegeben.<\/li>\n<\/ul>\n\n\n\n<h3 class=\"wp-block-heading has-medium-large-font-size\">4. Server-Ausf\u00fchrung:<\/h3>\n\n\n\n<p class=\"has-medium-font-size\"><em>if __name__ == \"__main__\":<\/em><\/p>\n\n\n\n<p class=\"has-medium-font-size\"><em>&nbsp;&nbsp;&nbsp; importieren uvicorn<\/em><\/p>\n\n\n\n<p class=\"has-medium-font-size\"><em>&nbsp;&nbsp;&nbsp; uvicorn.run(app, host=\"0.0.0.0.0\u2033, port=8000)<\/em><\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li class=\"has-medium-font-size\"><code><strong>uvicorn.run(app, host=\"0.0.0.0\", port=8000)<\/strong><\/code>Startet den Server an Port 8000 und erm\u00f6glicht den Zugriff auf die API.<\/li>\n<\/ul>\n\n\n\n<h3 class=\"wp-block-heading has-medium-large-font-size\">Schlussfolgerung<\/h3>\n\n\n\n<p class=\"has-medium-font-size\">Unternehmen und Entwickler k\u00f6nnen jetzt die <strong>leichtere, schnellere und privatere Modelle dank der SLMs (Small Language Models)<\/strong>ein entscheidender Durchbruch in der Entwicklung der generativen KI. Die <strong>Quantisierung von Modellen<\/strong> -die die Gr\u00f6\u00dfe und den Rechenaufwand erheblich reduziert, ohne die grundlegende Leistung zu beeintr\u00e4chtigen, k\u00f6nnen diese Modelle in Umgebungen ausgef\u00fchrt werden <strong>Vor-Ort<\/strong> oder auf Ger\u00e4ten mit eingeschr\u00e4nkten Ressourcen, wobei die volle Kontrolle \u00fcber Daten und Prozesse erhalten bleibt.<\/p>\n\n\n\n<p class=\"has-medium-font-size\">Erg\u00e4nzt wird dieser Ansatz durch die Architektur, die auf <strong>RAG (Retrieval-Augmented Generation)<\/strong>zusammen mit Tools wie <strong>FastAPI und LangChain<\/strong>Diese Strategien erm\u00f6glichen den Einsatz von KI-L\u00f6sungen, die steuerbar, \u00fcberpr\u00fcfbar und auf spezifische Anforderungen zugeschnitten sind. Diese Strategien machen es m\u00f6glich <strong>vollst\u00e4ndig kontrollierte KI-Generierung<\/strong>Das macht ihn zu einer realistischen und effektiven Wahl f\u00fcr anspruchsvolle Bereiche wie Datenanalyse, wissenschaftliche Forschung oder Kundendienst.<\/p>\n\n\n\n<p class=\"has-medium-font-size\">Die Kombination aus quantifizierten SLMs, modularer Architektur und autonomer Bereitstellung stellt eine der sichersten und effizientesten M\u00f6glichkeiten dar, generative KI in Ihr Unternehmen zu integrieren.<\/p>\n\n\n\n<h3 class=\"wp-block-heading has-medium-large-font-size\">M\u00f6chten Sie sehen, wie sich dies in einem realen Fall auswirkt?<\/h3>\n\n\n\n<p class=\"has-medium-font-size\">Lesen Sie das vollst\u00e4ndige Papier und erfahren Sie mehr.<\/p>\n\n\n<div class=\"wpforms-container wpforms-container-full wpforms-block wpforms-block-0479e51e-0ca1-4f8c-8b97-091019a9064a\" id=\"wpforms-3927\"><form id=\"wpforms-form-3927\" class=\"wpforms-validate wpforms-form wpforms-ajax-form\" data-formid=\"3927\" method=\"post\" enctype=\"multipart\/form-data\" action=\"\/de\/wp-json\/wp\/v2\/posts\/3910\" data-token=\"21e0f5bc03a6a79512f036010d75f312\" data-token-time=\"1776226407\" data-trp-original-action=\"\/de\/wp-json\/wp\/v2\/posts\/3910\"><noscript class=\"wpforms-error-noscript\">Bitte aktivieren Sie JavaScript in Ihrem Browser, um dieses Formular g\u00fcltig zu machen.<\/noscript><div class=\"wpforms-field-container\"><div id=\"wpforms-3927-field_1-container\" class=\"wpforms-field wpforms-field-text ocultar-urlASUNTO\" data-field-id=\"1\"><label class=\"wpforms-field-label\" for=\"wpforms-3927-field_1\">Thema <span class=\"wpforms-required-label\">*<\/span><\/label><input type=\"text\" id=\"wpforms-3927-field_1\" class=\"wpforms-field-large wpforms-field-required\" name=\"wpforms[fields][1]\" value=\"IA Generativa con Control Total: Peque\u00f1os Modelos de Lenguaje (SLMs) y Cuantizaci\u00f3n\" required><\/div><div id=\"wpforms-3927-field_2-container\" class=\"wpforms-field wpforms-field-text\" data-field-id=\"2\"><label class=\"wpforms-field-label wpforms-label-hide\" for=\"wpforms-3927-field_2\">Name <span class=\"wpforms-required-label\">*<\/span><\/label><input type=\"text\" id=\"wpforms-3927-field_2\" class=\"wpforms-field-large wpforms-field-required\" name=\"wpforms[fields][2]\" placeholder=\"Name\" required><\/div><div id=\"wpforms-3927-field_3-container\" class=\"wpforms-field wpforms-field-text\" data-field-id=\"3\"><label class=\"wpforms-field-label wpforms-label-hide\" for=\"wpforms-3927-field_3\">Nachname <span class=\"wpforms-required-label\">*<\/span><\/label><input type=\"text\" id=\"wpforms-3927-field_3\" class=\"wpforms-field-large wpforms-field-required\" name=\"wpforms[fields][3]\" placeholder=\"Nachname\" required><\/div><div id=\"wpforms-3927-field_4-container\" class=\"wpforms-field wpforms-field-text\" data-field-id=\"4\"><label class=\"wpforms-field-label wpforms-label-hide\" for=\"wpforms-3927-field_4\"> E-Mail Adresse <span class=\"wpforms-required-label\">*<\/span><\/label><input type=\"text\" id=\"wpforms-3927-field_4\" class=\"wpforms-field-large wpforms-field-required\" name=\"wpforms[fields][4]\" placeholder=\"E-Mail Adresse\" required><\/div><div id=\"wpforms-3927-field_5-container\" class=\"wpforms-field wpforms-field-text\" data-field-id=\"5\"><label class=\"wpforms-field-label wpforms-label-hide\" for=\"wpforms-3927-field_5\">Telefonnummer der Kontaktperson <\/label><input type=\"text\" id=\"wpforms-3927-field_5\" class=\"wpforms-field-large\" name=\"wpforms[fields][5]\" placeholder=\"Telefonnummer der Kontaktperson\" ><\/div><div id=\"wpforms-3927-field_6-container\" class=\"wpforms-field wpforms-field-checkbox boxtransparent\" data-field-id=\"6\"><label class=\"wpforms-field-label wpforms-label-hide\">Akzeptieren Sie die Datenschutzbestimmungen? <span class=\"wpforms-required-label\">*<\/span><\/label><ul id=\"wpforms-3927-field_6\" class=\"wpforms-field-required\"><li class=\"choice-1 depth-1\"><input type=\"checkbox\" id=\"wpforms-3927-field_6_1\" name=\"wpforms[fields][6][]\" value=\"He le\u00eddo y acepto la pol\u00edtica de privacidad\" required><label class=\"wpforms-field-label-inline\" for=\"wpforms-3927-field_6_1\">Ich habe die Datenschutzbestimmungen gelesen und akzeptiere sie <span class=\"wpforms-required-label\">*<\/span><\/label><\/li><\/ul><div class=\"wpforms-field-description wpforms-disclaimer-description\"><b>WICHTIG!<\/b> Lesen Sie unser <a href='https:\/\/exceltic.com\/politica-de-privacidad\/' target='_blank' style=\"color: #e74b10;\" >Datenschutzbestimmungen<\/a> bevor Sie fortfahren. Die von Ihnen bereitgestellten Informationen k\u00f6nnen personenbezogene Daten enthalten.<\/div><\/div><\/div><!-- .wpforms-field-container --><div class=\"wpforms-recaptcha-container wpforms-is-recaptcha wpforms-is-recaptcha-type-v2\" ><div class=\"g-recaptcha\" data-sitekey=\"6Lf9t3srAAAAAEstc-76vP4_LAvjdEbLQwgAri5D\"><\/div><input type=\"text\" name=\"g-recaptcha-hidden\" class=\"wpforms-recaptcha-hidden\" style=\"position:absolute!important;clip:rect(0,0,0,0)!important;height:1px!important;width:1px!important;border:0!important;overflow:hidden!important;padding:0!important;margin:0!important;\" data-rule-recaptcha=\"1\"><\/div><div class=\"wpforms-submit-container\" ><input type=\"hidden\" name=\"wpforms[id]\" value=\"3927\"><input type=\"hidden\" name=\"page_title\" value=\"\"><input type=\"hidden\" name=\"page_url\" value=\"https:\/\/exceltic.serquo.com\/de\/wp-json\/wp\/v2\/posts\/3910\"><input type=\"hidden\" name=\"url_referer\" value=\"\"><button type=\"submit\" name=\"wpforms[submit]\" id=\"wpforms-submit-3927\" class=\"wpforms-submit\" data-alt-text=\"Enviando...\" data-submit-text=\"Enviar\" aria-live=\"assertive\" value=\"wpforms-submit\">Senden Sie<\/button><img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/exceltic.serquo.com\/wp-content\/plugins\/wpforms-lite\/assets\/images\/submit-spin.svg\" class=\"wpforms-submit-spinner\" style=\"display: none;\" width=\"26\" height=\"26\" alt=\"Wird geladen\"><\/div><input type=\"hidden\" name=\"trp-form-language\" value=\"de\"\/><\/form><\/div>  <!-- .wpforms-container -->","protected":false},"excerpt":{"rendered":"<p>Implementierung generativer KI mit kleinen, quantifizierten Modellen. Gewinnen Sie Effizienz, Datenschutz und volle Kontrolle mit SLM und RAG in sicheren Umgebungen.<\/p>","protected":false},"author":1,"featured_media":3916,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[3],"tags":[],"class_list":["post-3910","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-eventos"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v26.9 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>IA Generativa con Control Total: Peque\u00f1os Modelos de Lenguaje (SLMs) y Cuantizaci\u00f3n -<\/title>\n<meta name=\"description\" content=\"Implementa IA generativa con modelos peque\u00f1os y cuantizados. Gana eficiencia, privacidad y control total con SLM y RAG en entornos seguros.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/exceltic.serquo.com\/de\/generative-ia-mit-voller-kontrolle-kleine-slms-sprachmodelle-und-quantisierung-2\/\" \/>\n<meta property=\"og:locale\" content=\"de_DE\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"IA Generativa con Control Total: Peque\u00f1os Modelos de Lenguaje (SLMs) y Cuantizaci\u00f3n -\" \/>\n<meta property=\"og:description\" content=\"Implementa IA generativa con modelos peque\u00f1os y cuantizados. Gana eficiencia, privacidad y control total con SLM y RAG en entornos seguros.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/exceltic.serquo.com\/de\/generative-ia-mit-voller-kontrolle-kleine-slms-sprachmodelle-und-quantisierung-2\/\" \/>\n<meta property=\"article:publisher\" content=\"https:\/\/www.facebook.com\/exceltic\/\" \/>\n<meta property=\"article:published_time\" content=\"2025-06-23T14:25:41+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2026-03-19T12:28:24+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/exceltic.serquo.com\/wp-content\/uploads\/2025\/06\/portada-blog-ia-generativa.png\" \/>\n\t<meta property=\"og:image:width\" content=\"1920\" \/>\n\t<meta property=\"og:image:height\" content=\"1080\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/png\" \/>\n<meta name=\"author\" content=\"Serquo Admin\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@exceltic\" \/>\n<meta name=\"twitter:site\" content=\"@exceltic\" \/>\n<meta name=\"twitter:label1\" content=\"Geschrieben von\" \/>\n\t<meta name=\"twitter:data1\" content=\"Serquo Admin\" \/>\n\t<meta name=\"twitter:label2\" content=\"Gesch\u00e4tzte Lesezeit\" \/>\n\t<meta name=\"twitter:data2\" content=\"8\u00a0Minuten\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/exceltic.serquo.com\/ia-generativa-con-control-total-pequenos-modelos-de-lenguaje-slms-y-cuantizacion-2\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/exceltic.serquo.com\/ia-generativa-con-control-total-pequenos-modelos-de-lenguaje-slms-y-cuantizacion-2\/\"},\"author\":{\"name\":\"Serquo Admin\",\"@id\":\"https:\/\/exceltic.serquo.com\/#\/schema\/person\/aa4f97f58379cc64179590f276472ad5\"},\"headline\":\"IA Generativa con Control Total: Peque\u00f1os Modelos de Lenguaje (SLMs) y Cuantizaci\u00f3n\",\"datePublished\":\"2025-06-23T14:25:41+00:00\",\"dateModified\":\"2026-03-19T12:28:24+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/exceltic.serquo.com\/ia-generativa-con-control-total-pequenos-modelos-de-lenguaje-slms-y-cuantizacion-2\/\"},\"wordCount\":1557,\"image\":{\"@id\":\"https:\/\/exceltic.serquo.com\/ia-generativa-con-control-total-pequenos-modelos-de-lenguaje-slms-y-cuantizacion-2\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/exceltic.serquo.com\/wp-content\/uploads\/2025\/06\/portada-blog-ia-generativa.png\",\"articleSection\":[\"Eventos\"],\"inLanguage\":\"de\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/exceltic.serquo.com\/ia-generativa-con-control-total-pequenos-modelos-de-lenguaje-slms-y-cuantizacion-2\/\",\"url\":\"https:\/\/exceltic.serquo.com\/ia-generativa-con-control-total-pequenos-modelos-de-lenguaje-slms-y-cuantizacion-2\/\",\"name\":\"IA Generativa con Control Total: Peque\u00f1os Modelos de Lenguaje (SLMs) y Cuantizaci\u00f3n -\",\"isPartOf\":{\"@id\":\"https:\/\/exceltic.serquo.com\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/exceltic.serquo.com\/ia-generativa-con-control-total-pequenos-modelos-de-lenguaje-slms-y-cuantizacion-2\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/exceltic.serquo.com\/ia-generativa-con-control-total-pequenos-modelos-de-lenguaje-slms-y-cuantizacion-2\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/exceltic.serquo.com\/wp-content\/uploads\/2025\/06\/portada-blog-ia-generativa.png\",\"datePublished\":\"2025-06-23T14:25:41+00:00\",\"dateModified\":\"2026-03-19T12:28:24+00:00\",\"author\":{\"@id\":\"https:\/\/exceltic.serquo.com\/#\/schema\/person\/aa4f97f58379cc64179590f276472ad5\"},\"description\":\"Implementa IA generativa con modelos peque\u00f1os y cuantizados. Gana eficiencia, privacidad y control total con SLM y RAG en entornos seguros.\",\"breadcrumb\":{\"@id\":\"https:\/\/exceltic.serquo.com\/ia-generativa-con-control-total-pequenos-modelos-de-lenguaje-slms-y-cuantizacion-2\/#breadcrumb\"},\"inLanguage\":\"de\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/exceltic.serquo.com\/ia-generativa-con-control-total-pequenos-modelos-de-lenguaje-slms-y-cuantizacion-2\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"de\",\"@id\":\"https:\/\/exceltic.serquo.com\/ia-generativa-con-control-total-pequenos-modelos-de-lenguaje-slms-y-cuantizacion-2\/#primaryimage\",\"url\":\"https:\/\/exceltic.serquo.com\/wp-content\/uploads\/2025\/06\/portada-blog-ia-generativa.png\",\"contentUrl\":\"https:\/\/exceltic.serquo.com\/wp-content\/uploads\/2025\/06\/portada-blog-ia-generativa.png\",\"width\":1920,\"height\":1080},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/exceltic.serquo.com\/ia-generativa-con-control-total-pequenos-modelos-de-lenguaje-slms-y-cuantizacion-2\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Portada\",\"item\":\"https:\/\/exceltic.serquo.com\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"IA Generativa con Control Total: Peque\u00f1os Modelos de Lenguaje (SLMs) y Cuantizaci\u00f3n\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/exceltic.serquo.com\/#website\",\"url\":\"https:\/\/exceltic.serquo.com\/\",\"name\":\"\",\"description\":\"Ingenier\u00eda y Consultor\u00eda\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/exceltic.serquo.com\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"de\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/exceltic.serquo.com\/#\/schema\/person\/aa4f97f58379cc64179590f276472ad5\",\"name\":\"Serquo Admin\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"de\",\"@id\":\"https:\/\/exceltic.serquo.com\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/secure.gravatar.com\/avatar\/c335bd9da7b1e9a671364c54e17ba39cb4a646b8eb953383973649c257b1fe49?s=96&d=mm&r=g\",\"contentUrl\":\"https:\/\/secure.gravatar.com\/avatar\/c335bd9da7b1e9a671364c54e17ba39cb4a646b8eb953383973649c257b1fe49?s=96&d=mm&r=g\",\"caption\":\"Serquo Admin\"},\"url\":\"https:\/\/exceltic.serquo.com\/de\/author\/serquo\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Generative KI mit vollst\u00e4ndiger Kontrolle: Kleine Sprachmodelle (SLMs) und Quantisierung","description":"Implementierung generativer KI mit kleinen, quantifizierten Modellen. Gewinnen Sie Effizienz, Datenschutz und volle Kontrolle mit SLM und RAG in sicheren Umgebungen.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/exceltic.serquo.com\/de\/generative-ia-mit-voller-kontrolle-kleine-slms-sprachmodelle-und-quantisierung-2\/","og_locale":"de_DE","og_type":"article","og_title":"IA Generativa con Control Total: Peque\u00f1os Modelos de Lenguaje (SLMs) y Cuantizaci\u00f3n -","og_description":"Implementa IA generativa con modelos peque\u00f1os y cuantizados. Gana eficiencia, privacidad y control total con SLM y RAG en entornos seguros.","og_url":"https:\/\/exceltic.serquo.com\/de\/generative-ia-mit-voller-kontrolle-kleine-slms-sprachmodelle-und-quantisierung-2\/","article_publisher":"https:\/\/www.facebook.com\/exceltic\/","article_published_time":"2025-06-23T14:25:41+00:00","article_modified_time":"2026-03-19T12:28:24+00:00","og_image":[{"width":1920,"height":1080,"url":"https:\/\/exceltic.serquo.com\/wp-content\/uploads\/2025\/06\/portada-blog-ia-generativa.png","type":"image\/png"}],"author":"Serquo Admin","twitter_card":"summary_large_image","twitter_creator":"@exceltic","twitter_site":"@exceltic","twitter_misc":{"Geschrieben von":"Serquo Admin","Gesch\u00e4tzte Lesezeit":"8\u00a0Minuten"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/exceltic.serquo.com\/ia-generativa-con-control-total-pequenos-modelos-de-lenguaje-slms-y-cuantizacion-2\/#article","isPartOf":{"@id":"https:\/\/exceltic.serquo.com\/ia-generativa-con-control-total-pequenos-modelos-de-lenguaje-slms-y-cuantizacion-2\/"},"author":{"name":"Serquo Admin","@id":"https:\/\/exceltic.serquo.com\/#\/schema\/person\/aa4f97f58379cc64179590f276472ad5"},"headline":"IA Generativa con Control Total: Peque\u00f1os Modelos de Lenguaje (SLMs) y Cuantizaci\u00f3n","datePublished":"2025-06-23T14:25:41+00:00","dateModified":"2026-03-19T12:28:24+00:00","mainEntityOfPage":{"@id":"https:\/\/exceltic.serquo.com\/ia-generativa-con-control-total-pequenos-modelos-de-lenguaje-slms-y-cuantizacion-2\/"},"wordCount":1557,"image":{"@id":"https:\/\/exceltic.serquo.com\/ia-generativa-con-control-total-pequenos-modelos-de-lenguaje-slms-y-cuantizacion-2\/#primaryimage"},"thumbnailUrl":"https:\/\/exceltic.serquo.com\/wp-content\/uploads\/2025\/06\/portada-blog-ia-generativa.png","articleSection":["Eventos"],"inLanguage":"de"},{"@type":"WebPage","@id":"https:\/\/exceltic.serquo.com\/ia-generativa-con-control-total-pequenos-modelos-de-lenguaje-slms-y-cuantizacion-2\/","url":"https:\/\/exceltic.serquo.com\/ia-generativa-con-control-total-pequenos-modelos-de-lenguaje-slms-y-cuantizacion-2\/","name":"Generative KI mit vollst\u00e4ndiger Kontrolle: Kleine Sprachmodelle (SLMs) und Quantisierung","isPartOf":{"@id":"https:\/\/exceltic.serquo.com\/#website"},"primaryImageOfPage":{"@id":"https:\/\/exceltic.serquo.com\/ia-generativa-con-control-total-pequenos-modelos-de-lenguaje-slms-y-cuantizacion-2\/#primaryimage"},"image":{"@id":"https:\/\/exceltic.serquo.com\/ia-generativa-con-control-total-pequenos-modelos-de-lenguaje-slms-y-cuantizacion-2\/#primaryimage"},"thumbnailUrl":"https:\/\/exceltic.serquo.com\/wp-content\/uploads\/2025\/06\/portada-blog-ia-generativa.png","datePublished":"2025-06-23T14:25:41+00:00","dateModified":"2026-03-19T12:28:24+00:00","author":{"@id":"https:\/\/exceltic.serquo.com\/#\/schema\/person\/aa4f97f58379cc64179590f276472ad5"},"description":"Implementierung generativer KI mit kleinen, quantifizierten Modellen. Gewinnen Sie Effizienz, Datenschutz und volle Kontrolle mit SLM und RAG in sicheren Umgebungen.","breadcrumb":{"@id":"https:\/\/exceltic.serquo.com\/ia-generativa-con-control-total-pequenos-modelos-de-lenguaje-slms-y-cuantizacion-2\/#breadcrumb"},"inLanguage":"de","potentialAction":[{"@type":"ReadAction","target":["https:\/\/exceltic.serquo.com\/ia-generativa-con-control-total-pequenos-modelos-de-lenguaje-slms-y-cuantizacion-2\/"]}]},{"@type":"ImageObject","inLanguage":"de","@id":"https:\/\/exceltic.serquo.com\/ia-generativa-con-control-total-pequenos-modelos-de-lenguaje-slms-y-cuantizacion-2\/#primaryimage","url":"https:\/\/exceltic.serquo.com\/wp-content\/uploads\/2025\/06\/portada-blog-ia-generativa.png","contentUrl":"https:\/\/exceltic.serquo.com\/wp-content\/uploads\/2025\/06\/portada-blog-ia-generativa.png","width":1920,"height":1080},{"@type":"BreadcrumbList","@id":"https:\/\/exceltic.serquo.com\/ia-generativa-con-control-total-pequenos-modelos-de-lenguaje-slms-y-cuantizacion-2\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Portada","item":"https:\/\/exceltic.serquo.com\/"},{"@type":"ListItem","position":2,"name":"IA Generativa con Control Total: Peque\u00f1os Modelos de Lenguaje (SLMs) y Cuantizaci\u00f3n"}]},{"@type":"WebSite","@id":"https:\/\/exceltic.serquo.com\/#website","url":"https:\/\/exceltic.serquo.com\/","name":"","description":"Engineering und Beratung","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/exceltic.serquo.com\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"de"},{"@type":"Person","@id":"https:\/\/exceltic.serquo.com\/#\/schema\/person\/aa4f97f58379cc64179590f276472ad5","name":"Serquo Verwaltung","image":{"@type":"ImageObject","inLanguage":"de","@id":"https:\/\/exceltic.serquo.com\/#\/schema\/person\/image\/","url":"https:\/\/secure.gravatar.com\/avatar\/c335bd9da7b1e9a671364c54e17ba39cb4a646b8eb953383973649c257b1fe49?s=96&d=mm&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/c335bd9da7b1e9a671364c54e17ba39cb4a646b8eb953383973649c257b1fe49?s=96&d=mm&r=g","caption":"Serquo Admin"},"url":"https:\/\/exceltic.serquo.com\/de\/author\/serquo\/"}]}},"_links":{"self":[{"href":"https:\/\/exceltic.serquo.com\/de\/wp-json\/wp\/v2\/posts\/3910","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/exceltic.serquo.com\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/exceltic.serquo.com\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/exceltic.serquo.com\/de\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/exceltic.serquo.com\/de\/wp-json\/wp\/v2\/comments?post=3910"}],"version-history":[{"count":10,"href":"https:\/\/exceltic.serquo.com\/de\/wp-json\/wp\/v2\/posts\/3910\/revisions"}],"predecessor-version":[{"id":3986,"href":"https:\/\/exceltic.serquo.com\/de\/wp-json\/wp\/v2\/posts\/3910\/revisions\/3986"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/exceltic.serquo.com\/de\/wp-json\/wp\/v2\/media\/3916"}],"wp:attachment":[{"href":"https:\/\/exceltic.serquo.com\/de\/wp-json\/wp\/v2\/media?parent=3910"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/exceltic.serquo.com\/de\/wp-json\/wp\/v2\/categories?post=3910"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/exceltic.serquo.com\/de\/wp-json\/wp\/v2\/tags?post=3910"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}