usługi · 03
Wdrożenia AI, które realnie schodzą z kosztów.
Claude, GPT albo modele open-source wpięte tam, gdzie zespół traci najwięcej godzin. Automatyzacje, agenci, RAG, voice — z efektem widocznym w P&L, nie z prezentacją na LinkedIn.
Co dostajesz
Konkrety, nie obietnice.
Każdy projekt to mierzalny efekt biznesowy. Bez "social mediów dla zasady" i "stron, które wyglądają fajnie".
/01
Audyt zanim cokolwiek wdrożę
Pierwsze 5-7 dni to audyt procesów. Ile godzin tygodniowo zespół traci na ręczną robotę? Które z tych zadań da się bezpiecznie podać AI? Co realnie zwróci się w 90 dni? Z tego wychodzi mapa, nie obietnica.
/02
Liczby, nie demo
Każde wdrożenie ma cel ilościowy: -30% czasu obsługi ticketów, -50% kosztu generowania treści, +20% NPS. Po 30 dniach od startu dostajesz raport — ile faktycznie dowiozło.
/03
Bezpieczeństwo i prywatność danych
Flagowanie PII, redact w logach, EU residency dla Claude i GPT, guardraile na prompt injection, limity per użytkownik. Zgodnie z AI Act i RODO, a nie zgodnie z marketingowym one-pagerem.
/04
Stack pod Twoje potrzeby
Nie biorę ślubu z jednym providerem. Claude Sonnet i Haiku, GPT-4, Llama on-prem, Whisper, ElevenLabs. Wybór po analizie kosztu i jakości na Twoich danych — nie po tym, co właśnie hype-uje LinkedIn.
Proces
Od briefu do launchu.
- 01
Audyt i mapa ROI
Pięć do siedmiu dni: wywiady z zespołem, lista 5-10 możliwych zastosowań, ranking po zwrocie i ryzyku. Wychodzi z tego dokument, którym możesz podejmować decyzje, nawet jeśli nie wdrażasz dalej ze mną.
tydz. 1 - 02
Prototyp na jednym zastosowaniu
Bierzemy to, co zwraca się najszybciej, i robię z tego działający prototyp. Jeśli nie zadziała na Twoich danych — kasujemy bez kosztów wdrożenia produkcyjnego.
tydz. 2-3 - 03
Produkcja i tracking
Integracja z Twoim systemem: CRM, Slack, panel, aplikacja. Logging, evale, alerty, kiedy jakość zaczyna spadać. Bez efektu „działało na demo, na produkcji nie wiadomo”.
tydz. 3-5 - 04
Iteracje i skalowanie
Co miesiąc: przegląd metryk, dostrajanie promptów, dorzucanie kolejnych zastosowań (jeśli ROI je uzasadnia). Stop, jeśli przestaje się zwracać — nie ciągniemy projektu dla projektu.
retainer
Cennik
Jasne widełki, bez "to zależy".
Finalna wycena zawsze po briefie 60 min. Niezależnie od planu , fakturuję etapowo, bez 100% z góry.
01
Audyt + PoC
3-8k PLN
2-3 tyg.
- Audyt 5-10 procesów
- ROI mapa
- PoC 1 use-case
- Rekomendacje stacku
- Brak commitmentu na produkcję
02
Wdrożenie
8-25k PLN
3-6 tyg.
- Wszystko z Audytu
- Pełna integracja
- Logging + evals
- Tracking KPI
- Onboarding zespołu
- 30 dni stabilizacji
03
AI Retainer
4-12k/mc
co miesiąc
- 10-30h pracy
- Iteracja istniejących wdrożeń
- Nowe use-case'y
- Monitoring jakości
- Optymalizacja kosztów API
Powiązane realizacje
Tak to wygląda u klientów.
FAQ
Najczęściej pytają o to.
Mój zespół boi się, że AI ich zastąpi. Co z tym?
Komunikacja od pierwszego dnia: AI bierze na siebie ręczną robotę, ludzie zostają z rzeczami, które wymagają sądu i kontekstu. Pokazuję to konkretnie na danych — po wdrożeniu zespół ma więcej zadań „wartych człowieka”, nie mniej. Dlatego pracuję głównie przez audyt, a nie przez „daj mi zrobić AI”.
Czy nasze dane wyciekną do OpenAI albo Anthropica?
Nie, jeśli skonfigurujemy to poprawnie. Claude i GPT w trybie API/enterprise nie używają Twoich danych do trenowania modelu — to zapisane w warunkach usługi. Dla najbardziej wrażliwych przypadków stawiamy Llamę on-prem albo Mistrala w EU. Decyzja po audycie ryzyka, nie po wyczuciu.
Ile to faktycznie kosztuje miesięcznie po wdrożeniu?
Koszty samego API to dla małej i średniej firmy zwykle 100-2000 PLN miesięcznie. Modele Haiku albo GPT-4o-mini są na tyle tanie, że ROI przebijają zwykle w pierwszym kwartale. Przy większej skali (powyżej 10 tysięcy zapytań dziennie) liczymy ROI co do złotówki, nie szacunkowo.
Czy macie doświadczenie z RAG, agentami i MCP?
Tak. Formified.ai (mój własny produkt) ma cały AI Coach zbudowany na RAG-u — vector search w Supabase pgvector. Mam gotowe wzorce na agentów z Claude Tool Use, serwery MCP, function calling i structured output (JSON Schema). Nie uczę się tego pierwszy raz na Twoim projekcie.
Co z halucynacjami?
Trzy warstwy. Pierwsza: RAG z cytowaniem źródeł, więc model ma się czego trzymać. Druga: structured output i walidacja schematu, żeby format nie odjechał. Trzecia: human-in-the-loop dla decyzji wrażliwych. Halucynacja w produkcji to bug — mierzy się ją i naprawia jak każdy inny.
Następny krok
Brief 60 min. Bezpłatnie.
Wysłuchaj 5 pytań które zadaję na pierwszej rozmowie , wiele rzeczy klaruje się już tam, jeszcze zanim zaczniemy projekt.