LLM
Minden poszt, ami a "LLM" címkét viseli · cikkek, case studyk, guide-ok.
- 2026. április 22. · AI megoldásokLLM prompt caching produkcioban · 60-80% koltseg-vagasA prompt caching a legnagyobb LLM-koltseg-kar 2026-ban. 4 minta, valodi megtakaritas-szamok, 2 gotcha.
- 2026. április 22. · AI megoldásokLLM eval-as-code · a CI-kapu, amit minden RAG-deployra futtatunkEgy manuálisan futtatott eval nem eval · ez a workflow kapja el a regressziót release elott.
- 2026. április 21. · AI megoldások · KiberbiztonságRAG adatszivárgás · hogyan ne szivárogjon ki ügyféladat 2026-banA RAG nem csak válaszgenerálás · adatszivárogtató vektor, ha nem vigyázol. 7 minta + 4 réteg védelem.
- 2026. április 18. · AI megoldások · KiberbiztonságLLM prompt injection playbook · a 2026-os támadási felületA prompt injection nem egy bug · öt kategória, öt védekezés. Ez a mi playbook-unk.
- 2026. április 14. · AI megoldásokMCP (Model Context Protocol): mit jelent az LLM-ügynökök jövőjéreAz MCP az utolsó év legfontosabb ügynök-standardja. Mit jelent a gyakorlatban, hol használjuk, és miért érdemes mellé állni 2026-ban.
- 2026. április 08. · AI megoldásokAI ügynökök produkcióban: ne demó legyen, hanem rendszerLLM-demóból élet-rendszer: retrieval-pipeline, kiértékelés, guardrails és költségkontroll, ahogy mi csináljuk a projekteken.