Analizy pre-earnings: Ze 160 godzin do automatyzacji
Przygotowanie do wynikow zajmuje 160 godzin analityka na kwartal. Framework Brookera Belcourta redukuje to do godziny przegladu. Oto jak wyglada Level 5.
W skrocie
- Przygotowanie do wynikow dla funduszu pokrywajacego 30 pozycji zajmuje okolo 160 godzin analityka na kwartal
- Opublikowany framework Brookera Belcourta (Every Inc., marzec 2026) kompresuje to do ok. 1 godziny przegladu na Level 4
- Skok z Level 2 do Level 4 wymaga ok. 100 godzin nauki kodowania na analityka
- Level 4 ma realne ograniczenia: kruche schedulowanie, efemeryczny output, dostep jednoosobowy
- Level 5 (infrastruktura produkcyjna) rozwiazuje te problemy przez persistent overnight runs, dostep dla wielu analitykow i przetwarzanie rownolegle
- Dokladnosc danych ze zrodel strukturalnych (benchmark Daloopa): 89-91%. Ze zrodel webowych: 20-71%. Zrodlo danych wazy wiecej niz model.
160 godzin na kwartal na montaz, nie analize
Przygotowanie do sezonu wynikow w funduszu pokrywajacym 30 pozycji zajmuje okolo 160 godzin na kwartal. To jeden analityk, pelny etat, przez miesiac, ktory nie robi nic poza montazem trendow przychodowych, ewolucji marz, danych segmentowych i komentarzy zarzadu.
Brooker Belcourt, ktory prowadzil finanse w Perplexity, a teraz kieruje doradztwem dla uslug finansowych w Every, skompresowal to do mniej wiecej godziny przegladu. Jego opublikowany framework pokazuje, gdzie wiekszosc zespolow utyka.
Po osiagnieciu tego, co nazywa Level 4, Belcourt mowi, ze 160 godzin skurczylo sie do “czasu potrzebnego Claude Code na przetworzenie plus godzina, ktora spedzam na przegladzie i dodawaniu perspektywy.”
Framework automatyzacji analiz pre-earnings warto zrozumiec w szczegolach, bo mapuje sciezke, ktora wiekszosc funduszy bedzie musiala przejsc.
Cztery poziomy automatyzacji wynikow
Level 1: ChatGPT z wlasnym promptem. Wiekszosc analitykow zaczyna tutaj. Wrzuc raport wynikowy albo 10-Q, daj szczegolowy prompt z prosba o analize beat/miss, trendy marz, zmiany prognozy i kluczowe cytaty z conference call. Output jest przyzwoity na pierwszy rzut. Ograniczenie: limit 8000 znakow promptu, brak polaczenia z danymi zewnetrznymi i kazda analiza uwieziona w oknie czatu, ktore znika po zamknieciu zakladki.
Level 2: Claude z umiejetnosciami i polaczeniami do danych. Analityk laczy Claude z zewnetrznymi danymi przez MCP (Model Context Protocol). Daloopa dostarcza ustrukturyzowane dane finansowe z hiperlinkami do dokumentow zrodlowych. Wiele szablonow analizy dziala jednoczesnie: umiejetnosc podgladu wynikow, umiejetnosc filozofii inwestycyjnej i umiejetnosc formatowania dashboardu. Output dramatycznie sie poprawia, bo model pracuje z prawdziwymi danymi finansowymi zamiast tego, co analityk wkleil do promptu. Sufit: nadal reczny workflow. Ktos musi uruchomic kazda analize.
Level 3: Claude Cowork z lokalnymi plikami. Tu do gry wchodza wlasne dane analityka. Modele Excelowe, wewnetrzne notatki, wczesniejsze memo badawcze, transkrypty rozmow. Claude czyta te lokalne pliki i laczy je z zewnetrznymi zrodlami danych. Mozesz poprosic o porownanie twoich prognoz z konsensusem, albo oflagowanie miejsc, gdzie komentarz zarzadu jest sprzeczny z twoja teza z poprzedniego kwartalu. Sufit: kazde zadanie produkuje oddzielny output. Brak zunifikowanego widoku.
Level 4: Claude Code z wlasnym dashboardem. Jedno polecenie uruchamia caly workflow. Claude Code dziala w sposob ciagly, wyciagajac dane z wielu MCP, czytajac wewnetrzne pliki, generujac analize i montujac wszystko w interaktywny dashboard Streamlit z wykresami, tabelami i sformatowanym komentarzem. Trajektorie przychodow, ewolucja marz, rozklady segmentow, porownania prognoz zarzadu. Wszystko z jednego polecenia.
Na Level 4, Belcourt twierdzi, ze kwartalne przygotowanie do wynikow kompresuje sie ze 160 godzin do mniej wiecej czasu obliczen plus godzina przegladu. 99% redukcji pracy analityka.
Gdzie wiekszosc zespolow utyka
Skok z Level 1 do Level 2 jest prosty. Podlacz zrodlo danych, pisz lepsze prompty. Wiekszosc technicznie ciekawych analitykow moze tam dojsc w kilka dni.
Skok z Level 2 do Level 4 to miejsce, gdzie sie sypie. Sam Belcourt szacuje krzywa nauki na 100 godzin, zanim analityk poczuje sie pewnie z narzedziami do kodowania. Jego warsztat za $5000 na jeden dzien istnieje wlasnie dlatego, ze ta 100-godzinna bariera zatrzymuje wiekszosci.
I nawet na Level 4 sa praktyczne ograniczenia istotne dla wdrozenia instytucjonalnego:
Schedulowanie jest kruche. Aktywnosc Belcourta na Twitterze z marca 2026 pokazuje go publikujacego screenshoty bledow przy probach uruchomienia zaplanowanych zadan Perplexity. Tagowal @perplexity_ai bezposrednio. Zaplanowane zadania w chmurze na platformie Anthropic sa ograniczone do trzech sesji dziennie na najwyzszym planie, a znane bledy konektorow MCP uniemozliwiaja ladowanie niektorych zrodel danych w zaplanowanych sesjach. Schedulowanie desktopowe wymaga, zeby maszyna analityka byla wlaczona i Claude Desktop otwarty. Zamknij klape laptopa i sesja sie konczy.
Output jest efemeryczny. Dashboardy Streamlit generowane przez Claude Code nie przetrwaja miedzy sesjami. Kazde uruchomienie zaczyna od zera. Nie ma bazy danych przechowujacej wczorajsza analize do porownania z dzisiejsza.
To rozwiazanie jednoosobowe. Dashboard dziala na localhost. Jeden analityk, jedna maszyna. Udostepnienie outputu oznacza zrobienie screenshota lub eksport PDF. Nie ma URL-a, ktory kolega moze otworzyc, zeby zobaczyc ten sam widok.
Pytanie o dokladnosc
Przed automatyzacja analiz wynikowych dokladnosc ma znaczenie. Badanie benchmarkowe Daloopa z lutego 2026 przetestowalo trzy frontierowe modele AI (Claude Opus 4.5, GPT-5.2 i Gemini 3 Pro) na 500 pytaniach finansowych.
| Zrodlo danych | Zakres dokladnosci |
|---|---|
| Wyszukiwanie webowe | 20% do 71% (zalezy od modelu i typu pytania) |
| Dane strukturalne (Daloopa) | 89% do 91% |
Wniosek nie brzmi, ze modele AI sa niewiarygodne. Zrodlo danych determinuje jakosc outputu. Agent wyciagajacy ustrukturyzowane dane fundamentalne od dostawcy takiego jak Daloopa, Fiscal AI czy FactSet produkuje dramatycznie dokladniejsza analize niz agent przeszukujacy web w poszukiwaniu danych finansowych. Model wazy mniej niz to, czym go karmisz.
Na potrzeby praktyczne: kazdy zautomatyzowany system analiz wynikowych powinien opierac sie na ustrukturyzowanych feedach danych, nie na web scrapingu. Zakres dokladnosci 89-91% na danych strukturalnych jest wystarczajaco wysoki, zeby sluzyc jako pierwszy przeglad, ktory analityk weryfikuje i dopracowuje. Zakres 20-71% na danych ze zrodel webowych jest zbyt zawodny, zeby mu ufac, nawet jako punkt wyjscia.
Jak wyglada Level 5
Framework Belcourta konczy sie na Level 4: pojedynczy analityk uruchamiajacy Claude Code z wlasnym dashboardem na swoim komputerze. Wymagania instytucjonalne ida dalej.
Produkcyjny system analiz pre-earnings dla funduszu z 20 do 50 pozycjami potrzebuje:
Persistent overnight scheduling. Agenci uruchamiaja sie o 3:00 w nocy, wyciagaja dane z wielu zrodel, generuja analize dla kazdej pozycji w portfelu i maja sformatowane briefy gotowe przed otwarciem rynku. Nie trzy sesje dziennie. Nie uzaleznione od wlaczonego laptopa. Kazda pozycja, kazdy poranek, bez wyjatku.
Dostep dla wielu analitykow. Ta sama analiza dostepna dla kazdego czlonka zespolu przez URL w przegladarce. Bez lokalnej instalacji. Bez 100-godzinnej krzywej nauki. Otworz strone, przeczytaj analize, zacznij pracowac.
Przetwarzanie rownolegle. Analiza 25 spolek jednoczesnie, nie sekwencyjnie. Sezon wynikowy jest gesty. Przetwarzanie pozycji jedna po drugiej oznacza, ze wczesne analizy sa przestarzale, zanim pozniejsze sie skoncza. Na GPW, gdzie wiele spolek z WIG20 raportuje w zblizonych terminach, ta kompresja ma szczegolne znaczenie.
Analiza oparta na zrodlach. Kazda liczba w outputcie linkuje do strukturalnego zrodla danych. Nie “przychody wzrosly o okolo 48%.” Zamiast tego: “przychody Google Cloud wyniosly $17,7 miliarda w Q4, wg Fiscal AI, co reprezentuje 48% wzrost rok do roku.” Analityk moze zweryfikowac kazdy punkt danych w sekundy.
Infrastruktura do tego istnieje juz dzisiaj. MCP laczy z dostawcami danych instytucjonalnych. Cron scheduling na dedykowanych serwerach dziala bez zaleznosci od laptopow. 160-godzinny kwartalny workflow kompresuje sie nie tylko dla jednego analityka na jednej maszynie, ale dla calego zespolu badawczego na kazdej pozycji, ktora pokrywaja.
Prawdziwe pytanie
Technologia dziala. Dokladnosc danych ze zrodel strukturalnych jest wystarczajaco wysoka. Warstwy schedulowania, obslugi wielu spolek i dostepu webowego to problemy inzynieryjne ze znanymi rozwiazaniami.
Pytanie dla wiekszosci zespolow inwestycyjnych nie brzmi, czy to jest mozliwe. Brzmi, czy chca spedzic 100 godzin na analityka uczac kazdego budowania tego samodzielnie, czy wola otrzymac gotowa infrastrukture w utrzymaniu, podczas gdy analitycy skupiaja sie na tym, do czego zostali zatrudnieni: podejmowaniu decyzji inwestycyjnych.
Framework czterech poziomow Belcourta to wlasciwa mapa. Ale celem podrozy nie jest “kazdy analityk zostaje ekspertem Claude Code.” Celem jest “kazdy analityk przychodzi o 7:00 rano i analizy juz na niego czekaja.”
Najczesciej zadawane pytania
Ile czasu zajmuje przygotowanie do wynikow bez automatyzacji?
Okolo 160 godzin analityka na kwartal dla funduszu pokrywajacego 30 pozycji. Obejmuje to montaz trendow przychodowych, ewolucji marz, danych segmentowych i komentarzy zarzadu dla kazdej pozycji. To jeden analityk pracujacy na pelny etat przez miesiac.
Czym jest framework czterech poziomow Brookera Belcourta?
Progresja od podstawowych promptow ChatGPT (Level 1) przez analize polaczona z danymi (Level 2), integracje z lokalnymi plikami (Level 3), do w pelni zautomatyzowanego dashboardu Claude Code (Level 4). Opublikowany przez Belcourta w Every Inc. w marcu 2026, oparty na jego doswiadczeniu z prowadzenia finansow w Perplexity.
Jak dokladna jest analiza finansowa generowana przez AI?
Zalezy calkowicie od zrodla danych. Benchmark Daloopa z lutego 2026, obejmujacy 500 pytan finansowych na trzech frontierowych modelach, wykazal 89-91% dokladnosci z ustrukturyzowanymi feedami danych i tylko 20-71% dokladnosci z wyszukiwaniem webowym. Ustrukturyzowane zrodla danych (Daloopa, FactSet, Fiscal AI) produkuja dramatycznie lepsze wyniki.
Jakie sa ograniczenia Level 4 (dashboard Claude Code)?
Trzy glowne ograniczenia: schedulowanie zalezy od wlaczonej maszyny analityka, output nie przetrwa miedzy sesjami, a dashboardy dzialaja na localhost bez dostepu wieloosobowego. To wlasnie luki, ktore infrastruktura instytucjonalna (Level 5) adresuje.
Czego wymaga produkcyjny system Level 5?
Persistent overnight scheduling (niezalezny od laptopa), dostep webowy dla wielu analitykow (bez lokalnej konfiguracji), przetwarzanie rownolegle calego portfela i analiza oparta na zrodlach z linkowanymi punktami danych. Technologia i konektory istnieja; luka to inzynieria integracji i wdrozenia.
Zrodla: Every Inc. “Build Your Own Bloomberg Terminal With AI” (Brooker Belcourt, marzec 2026), Daloopa AI Accuracy Benchmark (luty 2026, 500 pytan, 3 frontierowe modele), Brooker Belcourt Twitter @BrookerBelcourt (marzec 16-17 2026, problemy z schedulowaniem), Claude Help Center “Schedule recurring tasks” (ograniczenia planow), Anthropic Claude Code documentation (limity cloud schedulingu)
Ostatnia aktualizacja: 14 kwietnia 2026
Przez BetterAI | Budujemy infrastrukture AI do analiz inwestycyjnych dla europejskich firm. Zobacz jak to dziala