Przejdź do treści
g Growto

usługi · 03

Wdrożenia AI, które realnie schodzą z kosztów.

Claude, GPT albo modele open-source wpięte tam, gdzie zespół traci najwięcej godzin. Automatyzacje, agenci, RAG, voice — z efektem widocznym w P&L, nie z prezentacją na LinkedIn.

Co dostajesz

Konkrety, nie obietnice.

Każdy projekt to mierzalny efekt biznesowy. Bez "social mediów dla zasady" i "stron, które wyglądają fajnie".

/01

Audyt zanim cokolwiek wdrożę

Pierwsze 5-7 dni to audyt procesów. Ile godzin tygodniowo zespół traci na ręczną robotę? Które z tych zadań da się bezpiecznie podać AI? Co realnie zwróci się w 90 dni? Z tego wychodzi mapa, nie obietnica.

/02

Liczby, nie demo

Każde wdrożenie ma cel ilościowy: -30% czasu obsługi ticketów, -50% kosztu generowania treści, +20% NPS. Po 30 dniach od startu dostajesz raport — ile faktycznie dowiozło.

/03

Bezpieczeństwo i prywatność danych

Flagowanie PII, redact w logach, EU residency dla Claude i GPT, guardraile na prompt injection, limity per użytkownik. Zgodnie z AI Act i RODO, a nie zgodnie z marketingowym one-pagerem.

/04

Stack pod Twoje potrzeby

Nie biorę ślubu z jednym providerem. Claude Sonnet i Haiku, GPT-4, Llama on-prem, Whisper, ElevenLabs. Wybór po analizie kosztu i jakości na Twoich danych — nie po tym, co właśnie hype-uje LinkedIn.

Proces

Od briefu do launchu.

  1. 01

    Audyt i mapa ROI

    Pięć do siedmiu dni: wywiady z zespołem, lista 5-10 możliwych zastosowań, ranking po zwrocie i ryzyku. Wychodzi z tego dokument, którym możesz podejmować decyzje, nawet jeśli nie wdrażasz dalej ze mną.

    tydz. 1
  2. 02

    Prototyp na jednym zastosowaniu

    Bierzemy to, co zwraca się najszybciej, i robię z tego działający prototyp. Jeśli nie zadziała na Twoich danych — kasujemy bez kosztów wdrożenia produkcyjnego.

    tydz. 2-3
  3. 03

    Produkcja i tracking

    Integracja z Twoim systemem: CRM, Slack, panel, aplikacja. Logging, evale, alerty, kiedy jakość zaczyna spadać. Bez efektu „działało na demo, na produkcji nie wiadomo”.

    tydz. 3-5
  4. 04

    Iteracje i skalowanie

    Co miesiąc: przegląd metryk, dostrajanie promptów, dorzucanie kolejnych zastosowań (jeśli ROI je uzasadnia). Stop, jeśli przestaje się zwracać — nie ciągniemy projektu dla projektu.

    retainer

Cennik

Jasne widełki, bez "to zależy".

Finalna wycena zawsze po briefie 60 min. Niezależnie od planu , fakturuję etapowo, bez 100% z góry.

01

Audyt + PoC

3-8k PLN

2-3 tyg.

  • Audyt 5-10 procesów
  • ROI mapa
  • PoC 1 use-case
  • Rekomendacje stacku
  • Brak commitmentu na produkcję
Zapytaj o ten plan →

02

Wdrożenie

8-25k PLN

3-6 tyg.

  • Wszystko z Audytu
  • Pełna integracja
  • Logging + evals
  • Tracking KPI
  • Onboarding zespołu
  • 30 dni stabilizacji
Zacznijmy →

03

AI Retainer

4-12k/mc

co miesiąc

  • 10-30h pracy
  • Iteracja istniejących wdrożeń
  • Nowe use-case'y
  • Monitoring jakości
  • Optymalizacja kosztów API
Zapytaj o ten plan →

FAQ

Najczęściej pytają o to.

Mój zespół boi się, że AI ich zastąpi. Co z tym?

Komunikacja od pierwszego dnia: AI bierze na siebie ręczną robotę, ludzie zostają z rzeczami, które wymagają sądu i kontekstu. Pokazuję to konkretnie na danych — po wdrożeniu zespół ma więcej zadań „wartych człowieka”, nie mniej. Dlatego pracuję głównie przez audyt, a nie przez „daj mi zrobić AI”.

Czy nasze dane wyciekną do OpenAI albo Anthropica?

Nie, jeśli skonfigurujemy to poprawnie. Claude i GPT w trybie API/enterprise nie używają Twoich danych do trenowania modelu — to zapisane w warunkach usługi. Dla najbardziej wrażliwych przypadków stawiamy Llamę on-prem albo Mistrala w EU. Decyzja po audycie ryzyka, nie po wyczuciu.

Ile to faktycznie kosztuje miesięcznie po wdrożeniu?

Koszty samego API to dla małej i średniej firmy zwykle 100-2000 PLN miesięcznie. Modele Haiku albo GPT-4o-mini są na tyle tanie, że ROI przebijają zwykle w pierwszym kwartale. Przy większej skali (powyżej 10 tysięcy zapytań dziennie) liczymy ROI co do złotówki, nie szacunkowo.

Czy macie doświadczenie z RAG, agentami i MCP?

Tak. Formified.ai (mój własny produkt) ma cały AI Coach zbudowany na RAG-u — vector search w Supabase pgvector. Mam gotowe wzorce na agentów z Claude Tool Use, serwery MCP, function calling i structured output (JSON Schema). Nie uczę się tego pierwszy raz na Twoim projekcie.

Co z halucynacjami?

Trzy warstwy. Pierwsza: RAG z cytowaniem źródeł, więc model ma się czego trzymać. Druga: structured output i walidacja schematu, żeby format nie odjechał. Trzecia: human-in-the-loop dla decyzji wrażliwych. Halucynacja w produkcji to bug — mierzy się ją i naprawia jak każdy inny.

Następny krok

Brief 60 min. Bezpłatnie.

Wysłuchaj 5 pytań które zadaję na pierwszej rozmowie , wiele rzeczy klaruje się już tam, jeszcze zanim zaczniemy projekt.