Przejdź do treści
Twój pierwszy Agent AI w 30 minut
początkujący ⏱ 30 min ·
· 3 min czytania czytania

Twój pierwszy Agent AI w 30 minut

Poznaj różnicę między chatbotem a agentem AI. Dowiedz się, jak działa architektura ReAct i jak agenty w GitHub Copilot wykorzystują narzędzia do autonomicznej pracy.

Od Chata do Agenta – Zmiana paradygmatu

Większość programistów używa LLM (Large Language Models) jako “zaawansowanej autokorekty” lub “interaktywnej dokumentacji”. Wpisujesz prompt, dostajesz tekst. To pasywna interakcja.

Agent AI zmienia tę dynamikę. To nie jest już tylko model językowy, który “mówi”. To system, który działa.

LLM vs Agent AI

LLM (Chatbot): Mózg w słoiku. Wie wszystko, co przeczytał w internecie, ale nie ma rąk. Może Ci powiedzieć, jak napisać kod, ale sam go nie uruchomi ani nie sprawdzi błędów w Twoim terminalu.

Agent AI: Mózg z rękami i oczami. Posiada zestaw narzędzi (Tools), których może używać autonomicznie, aby wykonać zadanie.


Jak to działa pod maską? Pętla ReAct

Aby zrozumieć agenta w Copilocie, trzeba zrozumieć architekturę ReAct (Reason + Act). To serce każdego agenta.

Proces wygląda następująco:

1. Percepcja (Input)

Agent otrzymuje zadanie, np. “Sprawdź, dlaczego testy w module płatności nie przechodzą”.

2. Rozumowanie (Reasoning)

Model nie zgaduje odpowiedzi. Analizuje dostępne narzędzia. Myśli: “Aby odpowiedzieć, muszę najpierw uruchomić testy, zobaczyć błędy, a potem przeczytać plik z kodem”.

3. Działanie (Action)

Agent wybiera narzędzie, np. run_tests().

4. Obserwacja (Observation)

Agent “patrzy” na wynik (output z terminala).

5. Pętla

Jeśli widzi błąd, wraca do punktu 2 (Rozumowanie) i decyduje: “Widzę błąd w linii 40. Teraz muszę użyć narzędzia read_file, aby zobaczyć ten fragment”.

To właśnie ta autonomia w podejmowaniu decyzji o kolejnych krokach odróżnia Agenta od zwykłego skryptu.


Czym jest Agent w ekosystemie GitHub Copilot?

W VS Code, Copilot nie jest już monolitem. Dzięki Copilot Extensions, stał się platformą dla agentów.

Kiedy w czacie Copilota wpisujesz @workspace lub @terminal, w rzeczywistości wywołujesz wyspecjalizowanego agenta.

Kluczowe elementy architektury Copilota

Orkiestrator (Copilot Chat): To “recepcja”. Odbiera Twój prompt i decyduje, czy potrafi odpowiedzieć sam (z ogólnej wiedzy), czy musi przekazać zadanie do specjalisty (Agenta/Rozszerzenia).

Kontekst (The Context): To supermoc Copilota. Zwykły ChatGPT nie wie, co masz otwarte w IDE. Agent Copilota ma dostęp do tzw. Current State: otwartych plików, zaznaczonego kodu, struktury projektu, a nawet błędów w terminalu.

Narzędzia (Tools/Skills): Agenty w Copilocie mogą definiować funkcje, np.:

  • search_codebase: Przeszukaj wektoryzowany indeks Twojego projektu
  • run_terminal_command: Wykonaj polecenie (wymaga zgody użytkownika)
  • fetch_documentation: Pobierz dane z zewnętrznego API (np. dokumentacji Azure, Stripe czy Twojej własnej firmy)

Dlaczego to ma znaczenie?

Zamiast kopiować błędy z terminala do przeglądarki, potem szukać rozwiązania na StackOverflow, a na końcu wracać do IDE – Agent robi to w jednej pętli.

Przykład scenariusza

Użytkownik pisze: “Zoptymalizuj to zapytanie SQL i sprawdź, czy pasuje do schematu bazy danych”.

Zwykły LLM: Wygeneruje ogólne zapytanie SQL.

Agent (np. @database):

  1. Połączy się z Twoją bazą (używając narzędzia)
  2. Pobierze aktualny schemat tabel (kontekst)
  3. Napisze zapytanie idealnie dopasowane do nazw kolumn
  4. (Opcjonalnie) Uruchomi EXPLAIN ANALYZE, by sprawdzić wydajność

Podsumowanie

Tworzenie własnego agenta (Copilot Extension) to dziś kwestia zdefiniowania prostego serwera API, który mówi Copilotowi: “Hej, potrafię robić X i Y, oto moje instrukcje”.

W 30 minut możesz stworzyć agenta, który np. odpytuje Twoją firmową bazę wiedzy lub sprawdza status ticketów w Jirze bezpośrednio z poziomu IDE.