Kategoria artykułu: Technologia
Artykuł sponsorowany

Aplikację zrobisz w weekend. Problem zacznie się w poniedziałek

Sztuczna inteligencja przyspiesza tworzenie oprogramowania, ale zyski z tej rewolucji okazują się bardziej złożone, niż zapowiadały prognozy. Firmy coraz częściej stają przed paradoksem – mogą budować szybciej niż kiedykolwiek, ale równie szybko wpadają w pułapki kosztownego skalowania i błędów, które leżą u podstaw produktu.

Rynek oprogramowania wchodzi w fazę głębokiej zmiany napędzanej przez AI, od coraz powszechniejszych asystentów kodowania po pierwsze autonomiczne systemy w produkcji, przy jednoczesnych, bardziej zróżnicowanych niż oczekiwano efektach biznesowych wdrożeń. Fot. Getty Images

Z tego artykułu dowiesz się…

  1. Jak sztuczna inteligencja realnie zmienia proces tworzenia oprogramowania i dlaczego nie zawsze przekłada się to na proporcjonalne zyski.
  2. Dlaczego doświadczenie programisty nadal jest kluczowe mimo automatyzacji kodowania.
  3. Czym jest DevOps i jak chmura oraz automatyzacja skracają cykl wdrożeń z tygodni do godzin.
Loading the Elevenlabs Text to Speech AudioNative Player...

Globalny rynek oprogramowania, za sprawą asystentów kodowania opartych na sztucznej inteligencji, zmienia się dogłębnie i drastycznie. Według prognoz Gartnera, do 2028 roku 90 proc. inżynierów oprogramowania będzie korzystać z asystentów AI. W porównaniu z 14 proc. na początku 2024 roku można więc mówić o technologicznej rewolucji. Jak skazuje raport firmy Snowflake, „The ROI of Gen AI and Agents 2026”, 92 proc. wczesnych użytkowników generatywnej AI odnotowuje pozytywny zwrot z inwestycji (ROI). Pokusa, żeby być prekursorem w zarabianiu na innowacji, jest zatem duża.

Wśród organizacji, które precyzyjnie oszacowały swoje zyski, średni zwrot z inwestycji w generatywną AI wynosi obecnie 49 proc. Mimo to, zyski w aspektach takich jak produktywność są bardziej umiarkowane, niż sugerował pierwotny entuzjazm – 42 proc. personelu inżynieryjnego raportuje wzrost wydajności na poziomie od 1 proc. do 10 proc. Jednocześnie niemal jedna trzecia organizacji posiada już rozwiązania oparte na agentach AI w fazie produkcyjnej, co sugeruje przejście od prostych asystentów do systemów podejmujących autonomiczne decyzje.

AI przyspiesza development, ale nie zastępuje doświadczenia

Miłosz Bugla, iOS Team Leader w iteo, wskazuje, że narzędzia AI są bardzo pomocne przy szybkim prototypowaniu nowych funkcji. Pozwalają wygenerować pierwszą wersję implementacji, którą developer może później dostosować do projektu. Jednak największy wpływ sztucznej inteligencji widać w powtarzalnych i dobrze ustrukturyzowanych zadaniach.

Dotyczy to m.in. generowania boilerplate’u, integracji z API, tworzenia modeli danych czy pisania testów. Największą wartością AI w dewelopmentcie jest skrócenie czasu między pomysłem a pierwszą działającą wersją funkcji.

– Dotyczy to m.in. generowania boilerplate’u, integracji z API, tworzenia modeli danych czy pisania testów. Największą wartością AI w dewelopmentcie jest skrócenie czasu między pomysłem a pierwszą działającą wersją funkcji – mówi Miłosz Bugla.

Tempo rozwoju napędzają też usługi chmurowe, takie jak AWS czy Google Cloud, dzięki którym infrastruktura stała się zasobem dostępnym na żądanie. W tradycyjnym modelu przygotowanie środowiska produkcyjnego zajmowałoby tygodnie, podczas gdy proces ten można zrealizować w ciągu kilku godzin. Automatyzacja infrastruktury i praktyki DevOps pozwalają na częstsze wdrażanie zmian i szybkie testowanie pomysłów biznesowych.

Warto wiedzieć

Czym jest DevOps?

Praktyki DevOps to sposób organizacji pracy zespołów technologicznych, który opiera się na automatyzacji procesów wdrożeniowych (deploymentu), monitoringu oraz zarządzania środowiskami. Jest ono związane z wykorzystaniem chmury obliczeniowej, która pozwala traktować infrastrukturę jako zasób dostępny na żądanie.

Dzięki automatyzacji zespoły mogą wdrażać zmiany w kodzie znacznie częściej niż w tradycyjnym modelu, co bardzo skraca czas potrzebny na testowanie pomysłów biznesowych i ułatwia szybkie reagowanie na feedback od użytkowników.

XYZ

– Ryzyko pojawia się wtedy, gdy AI zaczyna być traktowane jako autorytet zamiast narzędzie wspierające pracę developera. Modele potrafią wygenerować kod, który wygląda poprawnie, ale nie zawsze uwzględnia pełny kontekst projektu, na przykład istniejące konwencje w kodzie, specyfikę domeny czy długoterminowe utrzymanie aplikacji. Dlatego kluczowe pozostaje doświadczenie developera i świadoma weryfikacja generowanych rozwiązań – mówi Miłosz Bugla.

Dodaje, że największym ryzykiem związanym z AI nie jest sam kod, tylko bezkrytyczne zaufanie do jego poprawności.

Szybki start, trudne skalowanie

Drugą stroną medalu rozwoju są próby szybkiego skalowania świeżo powstałych rozwiązań.

MVP (Minimum Viable Product) to, zgodnie z definicją Erica Riesa, najmniej skomplikowana wersja produktu, która pozwala rozpocząć proces uczenia się o rynku. Służy do weryfikacji hipotez biznesowych dotyczących problemu, wartości produktu i zachowań użytkowników. Często jednak organizacje mylą ten proces z budową pierwszej wersji systemu. Prowadzi to do zjawiska określanego jako „scope creep”, czyli ciągłego i niekontrolowanego dopisywania nowych funkcji do projektu, zanim jeszcze ktokolwiek zdążył go przetestować.

W takim scenariuszu uwaga zespołu przesuwa się z nauki o potrzebach klienta na sam proces programowania, co skutkuje inwestowaniem ogromnych zasobów w technologie w całkowitej izolacji od opinii rynku.

Analizy CB Insights potwierdzają, że brak rzetelnej weryfikacji pomysłu na wczesnym etapie prac jest jednym z głównych powodów dostarczania produktów, których ostatecznie nikt nie potrzebuje. A przyznaje to aż 42 proc. startupów.

Nasuwa to myśl, że firmy, zamiast zastanawiać się „jak zbudować produkt”, powinny zacząć od pytania „jak najszybciej sprawdzić, czy ten pomysł ma sens?”

Marcin Starmach, Cross-Platform Team Leader/Presales Solutions Architect w iteo, wskazuje, że brak myślenia o architekturze na poziomie prototypu jest jednym z błędów technicznych, które utrudniają skalowanie.

– Prototyp rośnie losowo, w szczególności w dobie AI, kod zawarty w aplikacji jest tworzony „na szybko” i w pełnym zaufaniu do modelu. Należy pamiętać, że późniejsze rozbudowanie, naprawa czy proces rozwojowy takiego oprogramowania będzie o wiele droższe niż proces, który od początku miał dobre fundamenty. Przy każdym podejściu do produktu, fundamenty są najważniejsze, jeżeli będą one zapewnione i kontrolowane przez doświadczony zespół, to nawet szybko tworzone MVP, MLP (minimum loveable product) będzie gotowe na rozwój – mówi Marcin Starmach.

O Firmie

Jak iteo tworzy cyfrowe doświadczenia

Grupa iteo składa się z firm technologicznych, które od 15 lat transformują i budują produkty cyfrowe – od aplikacji mobilnych po zaawansowane serwisy www. Spółki w grupie łączą kompetencje związane z badaniami użytkowników i projektowania innowacji z inżynierią oprogramowania oraz rozwiązaniami głosowymi opartymi na AI. 

iteo

Ekspert ostrzega przed traktowaniem proof of concept (PoC) jako gotowego produktu i „dorabianie” integracji, API, zabezpieczeń po pierwszym sukcesie. Podkreśla też, że bardzo ważnym aspektem jest, aby nie tworzyć aplikacji tylko dla jednego klienta, ponieważ późniejsze jej rozszerzenie pod wielu użytkowników jest kosztowne.

Jako MVP wystarczy „minimalna” architektura, ale ważne, żeby była. Nie odkładajmy zasad bezpieczeństwa i dobrych praktyk do szuflady. Takie podejście bardzo szybko się zemści i w najlepszym przypadku będą to tylko dodatkowe koszty, a w najgorszym kary i problemy prawne.

– Jako MVP wystarczy „minimalna” architektura, ale ważne, żeby była. Nie odkładajmy zasad bezpieczeństwa i dobrych praktyk do szuflady. Takie podejście bardzo szybko się zemści i w najlepszym przypadku będą to tylko dodatkowe koszty, a w najgorszym kary i problemy prawne – dodaje Marcin Starmach.

Małe decyzje, duże konsekwencje

Marcin Starmach obala jeden z najpopularniejszych mitów w branży, czyli, że szybkość i bezpieczeństwo to naczynia połączone i jedno musi odbywać się kosztem drugiego.

Jego zdaniem to fałszywy dylemat. Alternatywą jest stopniowe wprowadzanie standardów technologicznych, od samego początku projektu, a nie dopiero wtedy, gdy coś pójdzie nie tak.

Nawet na etapie MVP fundament musi być solidny. Starmach wymienia konkretne wymogi, które powinny obowiązywać od „dnia zero” – protokół HTTPS, unikanie przechowywania haseł w formie jawnej, ograniczanie uprawnień, filtrowanie danych wejściowych i logowanie krytycznych zdarzeń.

Ignorowanie tych zasad na starcie nie jest oszczędnością – to odroczona płatność. Dług technologiczny narasta cicho, aż staje się na tyle kosztowny, że jego spłata pochłania więcej zasobów niż cały pierwotny projekt. Do tego dochodzą ryzyko prawne i potencjalne kary.

Jak więc pogodzić tempo biznesu z odpowiedzialnością techniczną? Starmach wskazuje na modułowe integracje oparte na API i powiadomieniach systemowych. Pozwalają one szybko wdrażać i testować pojedyncze funkcje, takie jak płatności i ścieżki konwersji, bez ingerencji w rdzeń systemu.

Wskazuje, że przy każdej decyzji architektonicznej warto zadać sobie jedno pytanie – czy ta zmiana nie utrudni nam za rok dodania nowego klienta, integracji albo przeprowadzenia audytu? Jeśli odpowiedź jest niejednoznaczna, to jest już sygnał ostrzegawczy.

Kiedy MVP staje się produktem

Według Marcina Starmacha, moment przejścia od MVP do pełnoprawnego produktu cyfrowego, nie jest wyznaczany przez walory estetyczne aplikacji, lecz przez twarde dane i gotowość operacyjną. Gdy kluczowe hipotezy biznesowe zostały zweryfikowane, a użytkownicy realnie korzystają z rozwiązania, generując mierzalną retencję, konwersję i wartość LTV (Lifetime Value) – produkt uznaje się za dojrzały.

Z perspektywy technologicznej kod i architektura muszą być przygotowane na „cios produkcyjny”. Oznacza to wdrożenie podstawowych testów, mechanizmów CI/CD (Continuous Integration/Continuous Deployment) oraz systemów monitoringu i logowania. Architektura musi być na tyle elastyczna, by wydzielanie serwisów czy dodawanie nowych modułów nie wymagało „przepisania wszystkiego”. Od strony procesowej z kolei – niezbędne jest opracowanie powtarzalnych procesów akwizycji i onboardingu oraz prostej dokumentacji, która pozwala na skalowanie przepływów bez tzw. ręcznej ingerencji.

Ostatnim filarem tej gotowości jest zapewnienie zasobów na dalszy rozwój, takich jak dedykowany zespół i budżet. Wszystko po to, by uniknąć sytuacji, w której nowo powstały produkt zbyt szybko zmieni się w trudne do utrzymania rozwiązanie.

Główne wnioski

  1. Realne zyski z AI są bardziej umiarkowane niż oczekiwania rynku – wzrost produktywności często mieści się w przedziale 1-10 proc.
  2. Największym problemem w firmach jest brak właściwej walidacji pomysłów przed skalowaniem.
  3. Słabe fundamenty architektury na etapie prototypu znacząco podnoszą koszty późniejszego skalowania i utrzymania systemu.

Artykuł powstał na zlecenie firmy iteo.