Przejdź do treści
← Kurs M14L01 · Profesjonalne Użytkowanie 🛡️
🛡️ Fundament M14L01 M14 · Lekcja 1 z 4 12 min Ćwiczenie

Best Practices: weryfikacja kodu generowanego przez AI

Strategie weryfikacji kodu AI - review checklist, typowe błędy modeli, testy jako siatka bezpieczeństwa, odpowiedzialność developera.

Czego się nauczysz

  • Jakie praktyki najbardziej podnoszą jakość pracy z Copilotem w codziennym development workflow
  • Jak reviewować kod wygenerowany przez AI bez popadania w skrajności
  • Jak łączyć dobór trybu, promptu, kontekstu i weryfikacji w jeden spójny proces

Profesjonalne użycie AI zaczyna się tam, gdzie kończy się zachwyt nad AI

To jest dobra granica mentalna.

Na poziomie profesjonalnym nie pytasz już, czy Copilot jest “mądry”. Pytasz, jak ustawić workflow, żeby produkował użyteczne wyniki przy akceptowalnym ryzyku i koszcie weryfikacji.

Najpierw dobierz właściwy tryb pracy

Best practices w VS Code zaczynają od bardzo praktycznej rady: nie używaj jednego trybu do wszystkiego.

Najkrótszy filtr wygląda tak:

  • inline suggestions: mikroprzyspieszenie w locie
  • Ask: pytania i eksploracja
  • Inline Chat: lokalna, punktowa edycja
  • Agent: wykonanie wielokrokowe
  • Plan: porządkowanie złożonych zmian

Duża część słabych efektów z AI nie wynika z jakości modelu, tylko z użycia niewłaściwego narzędzia do zadania.

Dobry prompt to nie jest poetyka, tylko specyfikacja

Docs o best practices bardzo mocno akcentują konkret:

  • opis wejść i wyjść
  • ograniczenia
  • oczekiwane zachowanie
  • kryteria weryfikacji

Im bardziej niejasne jest zadanie, tym większe ryzyko, że AI dostarczy coś pozornie sensownego, ale niepotrzebnego albo wręcz mylącego.

Najbardziej praktyczny element promptu to często nie prośba o implementację, tylko prośba o test albo kryteria akceptacji.

Kontekst ma być trafny, nie maksymalny

To kolejny obszar, w którym łatwo przegiąć.

Profesjonalna praca z Copilotem polega na dostarczaniu właściwego kontekstu:

  • konkretnych plików
  • symboli
  • #problems
  • wyników testów
  • zmian ze source control

Nie chodzi o to, żeby AI “widziało wszystko”. Chodzi o to, żeby widziało to, co jest potrzebne do decyzji.

Review kodu AI to nie opcja, tylko obowiązek

Best practices mówią to wprost: kod wygenerowany przez AI trzeba czytać jak kod juniora, który pracował szybko i czasem zbyt pewnie.

Najważniejsze rzeczy do sprawdzenia to:

  • zgodność z wymaganiem
  • edge case’y
  • obsługa błędów
  • spójność z architekturą repo
  • bezpieczeństwo
  • testowalność

Jeśli nie masz czasu tego sprawdzić, to znaczy, że agent dostał za duży batch pracy.

Testy są najlepszą siatką bezpieczeństwa

To nie jest tylko hasło z TDD.

W praktyce testy robią trzy rzeczy:

  • zamieniają wymagania na weryfikowalny kontrakt
  • chronią przed regresją po kolejnych iteracjach agenta
  • obniżają koszt refaktoryzacji wygenerowanego kodu

Jeżeli AI dopisuje kod bez testów albo bez walidacji, koszt zaufania gwałtownie rośnie.

Plan-first bardzo dobrze skaluje złożoność

Docs podpowiadają zdrowy workflow:

  1. explore
  2. plan
  3. implement
  4. review

To jest szczególnie ważne dla zmian wieloplikowych i architektonicznych. Im większy zakres, tym mniej sensu ma spontaniczna implementacja bez planu.

Checkpointy i nowe sesje są oznaką dojrzałości, nie słabości

Jeśli agent idzie w złą stronę, nie próbuj ratować wszystkiego kolejnymi promptami w nieskończoność.

Profesjonalne użycie AI to także umiejętność powiedzenia:

  • wracam do checkpointa
  • robię nową sesję
  • zawężam zakres
  • rozbijam zadanie na mniejsze kroki

To zwykle przyspiesza pracę bardziej niż dalsze przepychanie jednego wątku.

Duże codebase’y wymagają dodatkowej dyscypliny

W większych repo best practices sugerują kilka rzeczy:

  • indeksowanie workspace’u
  • multi-root, gdy ma to sens
  • project-level instructions
  • plan agent dla zmian przekrojowych
  • równoległe sesje dla niezależnych zadań

To ważne, bo w dużym systemie największym problemem nie jest wygenerowanie kodu. Największym problemem jest wygenerowanie kodu, który nie rozjedzie się z resztą systemu.

Dobór modelu też jest częścią best practice

Szybki model do prostych rzeczy, reasoning model do planowania i diagnozy, pinowanie modelu w promptach albo agentach, gdy workflow wymaga przewidywalności.

To nie jest detal. To świadomy wybór kosztu, prędkości i jakości odpowiedzi.

Ćwiczenie praktyczne

Przygotuj własną checklistę review dla kodu generowanego przez AI. Niech zawiera co najmniej:

  • trzy pytania o zgodność z wymaganiem
  • dwa pytania o ryzyko architektoniczne
  • dwa pytania o bezpieczeństwo
  • dwa pytania o testy i weryfikację

Potem użyj tej checklisty na jednym realnym fragmencie kodu wygenerowanego przez Copilot i sprawdź, które błędy wykrywa najczęściej.

Kluczowe wnioski

  • Profesjonalne użycie Copilota polega na doborze właściwego trybu, kontekstu i poziomu weryfikacji.
  • Najlepszą ochroną przed słabym kodem AI są plan, testy, review i mały batch pracy.
  • Nowa sesja, checkpoint albo zmiana modelu to narzędzia pracy, nie oznaka porażki.
  • AI przyspiesza development tylko wtedy, gdy nie obniżasz poprzeczki inżynierskiej.

Co dalej

Po best practices trzeba domknąć najtrudniejszy temat: bezpieczeństwo i trust. Czyli gdzie naprawdę przebiegają granice zaufania do Copilota, jego narzędzi, danych i polityk organizacyjnych.