Żyjemy w bańce. Jesteśmy ułamkiem ułamka procenta populacji, jeżeli chodzi o wykorzystanie narzędzi AI. Nawet w szeroko rozumianym IT ilość firm czy osób pracujących w ten “nowy” sposób jest relatywnie niewielka. Jednak ci z nas, którzy wspierają się agentami dłuższy czas, widzą, jak potężnym narzędziem dysponują. Claude to dopalacz umiejący zwiększyć “produktywność” dewelopera o 100–200%. I od razu zaczyna się zabawa w snucie fantazji: dajmy Claude’a wszystkim naszym programistom, a “output” naszej firmy wzrośnie razy “X”. I chciałoby się rzec: “A takiego…”
Asymetria Link to heading
Z punktu widzenia organizacji “programowanie” jest najdroższym elementem procesu wytwarzania oprogramowania. To przecież to miejsce, gdzie siedzą nasi inżynierowie i kodzą — to za to płacimy te bajeczne stawki, prawda? Wydaje się więc słuszne, że dopalenie tych ludzi Claudem zoptymalizuje koszty – dwa razy więcej kodu za $200 na licencje? Shut up and take my money!
I tu wchodzi na scenę “cały na biało” proces SDLC. Sam fakt, że podwaliny pod dzisiejsze zrozumienie tego skrótu powstały już w latach 60., dobitnie pokazuje, jak kluczowy jest to temat dla sprawnego dostarczania “wartości” biznesowej. No więc co poza “programowaniem” znajduje się w tym “cyklu”?
Fake Link to heading
Każdy kodzik trzeba przejrzeć — to prosty i skuteczny sposób na unikanie silosów i “niezatapialnych” ludzi. Potem trzeba to też przetestować i to raczej na kilku płaszczyznach — bardzo możliwe, że część tych testów w waszej organizacji jest „ręczna", a przynajmniej „białkowa". No i na koniec całość musi zyskać aprobatę zamawiającego – czy to będzie PO w SaaS-ie, czy klient w software house-ie. Potem jeszcze tylko zgranie procesów CD, być może jakaś ręczna zabawa w rebase’y na maina, rozwiązanie paru konfliktów, powtórne odpalenie CI, ponowne zdobycie akceptów, które wyparowały, bo poprawiliście spacje w README… I już można pchać na prod. Prawda, że proste?
No ale chwila, na razie mówiliśmy tylko o tym, co jest PO kodziku. A co jest PRZED? Ktoś musi wpaść na jakiś pomysł lub trafić na jakieś “opportunity”, wyciągnąć z głowy zamawiającego, jaki w sumie problem rozwiązujemy? To trzeba jeszcze jakoś opisać, rozwinąć, “zresearchować”, nadać temu jakiś priorytet. Na pewno musi się gdzieś znaleźć etap analiz, projektowania wymagań, doprecyzowania potrzeb itp. Opisane wymagania same z siebie nie pojawiają się w taskach w Jirze, a ich treść tak magicznie się nie wypełni…
No i nie zapominajmy, że każdy z tych etapów “wyrósł” naturalnie w organizacji i jest dostosowany do reszty procesu. To proces “ewolucyjny”, czyli tylko tak wydajny jak musi być, ale nie bardziej. I teraz w tę sprawną (mniej lub bardziej) maszynkę dostarczania wartości wrzucamy Claude’a. Najczęściej Clauda dostają programiści, którzy zaczynają produkować więcej kodu. I co, jest szybciej? A no nie, bo co z tego, jeśli nagle ilość PR się podwaja i zamiast np. 10 dziennie robicie 20? Przecież wasz pipeline CI dalej zajmuje godzinę, a testy raz na 3 razy failują bez powodu. Każdy z tych PR-ów i tak trzeba przetestować białkowo na środowiskach testowych, których macie raptem kilka, i trzeba zapisać się tam w kolejkę. A jak już przejdziecie tę ścieżkę zdrowia, to i tak PR leży tydzień albo i dwa w oczekiwaniu na “okienko” deployowe…
Synergia Link to heading
AI ma szansę zwiększyć “wydajność” organizacji w dostarczaniu wartości do klienta. Ale nie dzięki temu, że damy programistom Claude’a. Uzyskanie przyrostów dzięki AI wymaga zmian w całym SDLC – musimy na nowo ułożyć każdy proces!
Brakuje czasu i precyzji w odpowiadaniu na RFP? AI przegląda ostatnie 30 RFP, zarówno te, które zakończyły się sukcesem, jak i te, które przepadły. Na podstawie outputu generowany jest skill wspierający.
Rozpoznawanie i analiza potrzeb i problemów klienta jest wolna? Automatyczna analiza transkrypcji spotkań, maili i formalnej specyfikacji. Błyskawiczny research generujący potencjalne ścieżki implementacji opracowanych wymagań. Rozbicie wymagań na relatywnie atomowe etapy i zapisanie ich w Jirze, spięcie epiką i przekazanie do zespołów.
Nieoptymalne testy jednostkowe? Claude Code analizuje standardy branżowe, destyluje do 3 stron tekstu, wyciąga 15 podstawowych reguł, buduje skilla do refaktoryzacji z zestawem szablonów najczęściej występujących problemów w waszym codebase.
Wolne i często failujące joby w CI? Analiza Claude’a wskazuje na 5 potencjalnych obszarów do poprawy. W ciągu 2–3 dni generowane są POC-e weryfikujące na forku projektu. Te same procesy są odpalane na nowych jobach w celu weryfikacji.
Proces potwierdzania funkcjonalności jest wolny i manualny? W ciągu 2 dni powstaje drobiazgowy plan uszczelniający luki w testach automatycznych na wszystkich poziomach. Następnie opracowywany jest podział na zespoły. Brakujące testy są implementowane z wykorzystaniem Claude’a w niecałe 2 tygodnie.
To oczywiście tylko teoretyczne przykłady, zbyt ogólne, żeby dało się na ich podstawie sformułować praktyczną strategię czy zacząć budować swoje nowe SDLC i nie to jest tutaj moim celem. Chcę pokazać potencjał — kierunek, w którym można zacząć szukać pomysłów, usprawnień dzisiejszych procesów, w których dodanie AI przyspieszy nasz “output” nie tworząc przy okazji bottle-neck’ów. I oczywiście, że mogę się mylić, jesteśmy na zbyt wczesnym etapie, aby móc być pewnym czegokolwiek, ale nie można robić “nic” bo choć to frazes, przyszłość dzieje się tu i teraz, wprost na naszych oczach.