Your 99 — Wizja

Co może zbudować kontynent umysłów.

Ten dokument jest szczerze idealistyczny. Mówimy to na wstępie. Ale idealizm oparty na arytmetyce to nie fantazja — to inżynieria. A alternatywą dla idealizmu w tej chwili jest kapitulacja.


Uczciwe zastrzeżenie

To, co następuje, jest wizją, nie planem. Plan jest w Planie Działania. Mechanizm jest w Umowie. Ten dokument opisuje, dokąd prowadzi droga, jeśli matematyka się sprawdzi — i jeśli wystarczająco dużo ludzi zdecyduje, że trajektoria, na której aktualnie jesteśmy, nie jest tą, której chcą.

Niektóre z tych rzeczy będą brzmiały ambitnie. Są. Ale rozważ: każdy paragraf poniżej jest mniej ambitny niż to, co pięć laboratoriów AI już próbuje osiągnąć z udziałem ułamka ludzkości i brakiem jej zgody.


Świat, w którym jesteśmy

Pięć firm — OpenAI, Google DeepMind, Anthropic, Meta AI i xAI — podąża drogą do budowy systemów, które mogłyby zautomatyzować większość ludzkiej pracy intelektualnej. To nie spekulacja. To deklarowany cel ich założycieli, przedmiot ich badań i trajektoria ich możliwości.

Te firmy są kontrolowane przez zadziwiająco małą liczbę ludzi. Struktury zarządzania koncentrują władzę decyzyjną: pojedyncze osoby posiadają większościowe prawa głosu, zarządy mają ograniczoną władzę, a użytkownicy nie mają żadnej. Najważniejsza technologia w historii ludzkości jest kierowana przez garstkę ludzi w garści biur.

Geoffrey Hinton — naukowiec, który otrzymał Nagrodę Nobla za fundamentalne prace w dziedzinie głębokiego uczenia — odszedł z Google, by mówić swobodnie o ryzyku wyginięcia ze strony AI. Nie powiedział, że jest to pewne. Powiedział, że jest to możliwe, i sama ta możliwość wymaga uwagi.

Yoshua Bengio, kolejna postać założycielska współczesnego AI, wezwał do międzynarodowego zarządzania rozwojem AI. Stuart Russell, autor standardowego podręcznika sztucznej inteligencji, argumentował, że obecne podejścia do rozwoju tworzą systemy, których cele mogą nie być zgodne z dobrem ludzkości.

To nie są głosy z marginesu. To ludzie, którzy zbudowali fundamenty. I mówią: powinniśmy zwracać uwagę.

Reakcja większości ludzkości polegała na obserwowaniu. Na kiwaniu głowami. Na udostępnianiu artykułów o ryzyku AI, a potem otwieraniu ChatGPT. Na uznaniu problemu i nierobieniu nic.

Nierobienie niczego to wybór. I w tej chwili to najgorszy dostępny wybór.


Alternatywa

A co jeśli ludzie, którzy korzystają z AI — ludzie, których praca je trenuje, których informacje zwrotne je ulepszają, których codzienne życie jest przez nie kształtowane — mieliby głos w sposobie, w jaki jest budowane?

Nie skrzynkę komentarzy. Nie formularz opinii. Nie petycję. Prawdziwą własność. Prawdziwe zarządzanie. Prawdziwą władzę kształtowania kierunku narzędzi, od których zależą.

To nie jest abstrakcja. Mechanizm istnieje. Umowa go definiuje. Żywy Udział (Living Stake) nadaje wagę wkładowi. Zarządzanie daje głos zainteresowanym. Jedyne, czego brakuje, to skala.

A skala jest tym, o czym mówi ten dokument.


Część 1 — Społeczność jako laboratorium AI

Rewolucja RLHF, która jeszcze się nie wydarzyła

Dziś systemy AI są ulepszane za pomocą uczenia się ze wzmocnieniem na podstawie ludzkiego feedbacku — RLHF. Firmy zatrudniają wykonawców do oceny wyników AI: czy ta odpowiedź jest pomocna? Czy jest dokładna? Czy jest szkodliwa? Te informacje zwrotne kształtują zachowanie modelu.

Pula ludzi dostarczających te informacje jest mała — tysiące, nie miliony. Są to często wykonawcy szybko przeglądający zadania ewaluacyjne, opłacani za zadanie, z ograniczoną wiedzą dziedzinową. Wykonawca oceniający odpowiedź medyczną może nie mieć szkolenia medycznego. Wykonawca oceniający analizę prawną może nie mieć wykształcenia prawniczego.

Teraz wyobraź sobie alternatywę.

Społeczność milionów ludzi — zorganizowanych według zawodu, wiedzy specjalistycznej, dziedziny — dostarczających informacje zwrotne na temat systemów AI, które posiadają. Nie jako wykonawcy. Jako właściciele.

  • Pielęgniarka korzysta z asystenta zdrowotnego AI Your 99. Gdy AI podaje nieco błędne ostrzeżenie o interakcji leków, koryguje je. Jej korekta to wkład. Zdobywa udział. AI ulepsza się dla każdej pielęgniarki, która korzysta z niego po niej.
  • Księgowy podatkowy korzysta z narzędzia finansowego Your 99. Gdy AI błędnie stosuje przepis podatkowy, koryguje go, podając konkretny przepis. Jego wiedza specjalistyczna staje się danymi treningowymi. Zdobywa udział. AI staje się bardziej niezawodne dla każdego księgowego.
  • Nauczycielka korzysta z platformy edukacyjnej Your 99. Gdy AI źle tłumaczy pojęcie 12-latkowi, przepisuje wyjaśnienie. Jej wiedza pedagogiczna kształtuje AI. Zdobywa udział. AI lepiej służy uczniom.
  • Muzyk korzysta z narzędzia kreatywnego Your 99. Gdy AI generuje coś, co brzmi wtórnie, przekazuje informacje o oryginalności, o uczuciu, o tym, co sprawia, że muzyka żyje. Jej gust i osąd stają się sygnałem treningowym. Zdobywa udział.
  • Inżynier oprogramowania recenzuje kod generowany przez AI. Łapie subtelny wyścig wątków, który AI pominęło. Jej wiedza wpływa do systemu. Zdobywa udział. AI pisze lepszy kod dla wszystkich.

To nie jest hipotetyczne. To RLHF na skalę, jakiej żadna pojedyncza firma nie jest w stanie osiągnąć. Nie 10 000 wykonawców. Nie 100 000 beta testerów. Miliony ekspertów dziedzinowych, w każdym zawodzie, w każdym języku, w każdym kraju — ulepszających AI, bo posiadają rezultat.

Jakość tych informacji zwrotnych byłaby bezprecedensowa. Pielęgniarka korygująca wynik medycznego AI dostarcza feedback wart o rzędy wielkości więcej niż ogólny wykonawca robiący tę samą ewaluację. Wiedza dziedzinowa to najrzadszy zasób w dostosowywaniu AI, a my proponujemy korzystanie z największej puli tej wiedzy, jaka kiedykolwiek istniała.

Dlaczego firmy nie mogą tego zbudować

OpenAI nie może tego zbudować. Nie z powodu technologii — z powodu struktury. Ich użytkownicy to klienci, nie właściciele. Nie ma mechanizmu wynagradzania użytkowników za feedback, który ulepsza model. Nie ma zarządzania, które pozwala użytkownikom kształtować kierunek AI. Feedback płynie w jedną stronę: od użytkownika do firmy. Wartość płynie w jedną stronę: od firmy do akcjonariuszy.

Your 99 odwraca oba przepływy. Feedback płynie od użytkownika do produktu. Wartość płynie od produktu do użytkownika. Wiedza specjalistyczna użytkownika ulepsza AI, a użytkownik posiada 99% tego ulepszenia.


Część 2 — Społeczność jako infrastruktura

Bezczynne maszyny

W tej chwili miliardy urządzeń komputerowych stoją bezczynnie przez większość czasu. Twój laptop śpi, gdy jesz obiad. Twój komputer stacjonarny jest nieużywany, gdy śpisz. Procesor twojego telefonu jest w 95% bezczynny, gdy czytasz to zdanie.

Łączna moc obliczeniowa tych bezczynnych urządzeń jest oszałamiająca. Ostrożnie szacując: setki milionów urządzeń z nowoczesnymi procesorami i GPU, dostępnych łącznie na miliardy godzin dziennie.

To nie jest nowy pomysł. SETI@home zademonstrował obliczenia rozproszone w 1999 roku. Folding@home zebrał jeden z najpotężniejszych systemów obliczeniowych na Ziemi z bezczynnych maszyn wolontariuszy do symulacji fałdowania białek. BOINC umożliwił dziesiątki projektów obliczeń naukowych przez darowane cykle.

Co jest nowe, to model własności.

W poprzednich projektach obliczeń rozproszonych kontrybutorzy darovali zasoby za darmo. Nie było mechanizmu ich wynagradzania. Nie było zarządzania pozwalającego im kształtować sposób wykorzystania zasobów. Nie było ekonomicznej zbieżności między wkładem a nagrodą.

W Your 99 wnoszenie zasobów obliczeniowych jest wkładem jak każdy inny. Bezczynne cykle twojego GPU pomagają trenować lub uruchamiać modele AI dla produktów Your 99. Twój wkład jest śledzony. Zdobywasz udział. Łączna moc obliczeniowa społeczności staje się infrastrukturą, której żadna pojedyncza firma nie musi finansować — i której żadna pojedyncza firma nie kontroluje.

Co to oznacza w skali

Przy 1 milionie członków wnoszących bezczynne zasoby obliczeniowe: sieć obliczeń rozproszonych dorównująca średnim dostawcom chmury.

Przy 10 milionach członków: sieć zbliżająca się skalą do wyspecjalizowanych klastrów treningowych AI.

Przy 100 milionach członków: zasób obliczeniowy, z którym żadna pojedyncza firma na Ziemi nie mogłaby się mierzyć, w całości należący do swoich kontrybutorów, zarządzany przez swoich użytkowników.

To nie jest projekt na jutro. Wymaga zaufania, infrastruktury, rozwiązań bezpieczeństwa i społeczności, która już udowodniła, że podstawowy model działa. Ale to jest kierunek. I każda decyzja, którą podejmujemy teraz, powinna zachowywać ścieżkę do tej możliwości.


Część 3 — Zbiorowa inteligencja

Co zbudowali wolontariusze

Wikipedia: największa encyklopedia świata, napisana w całości przez wolontariuszy, bez płatnego zespołu redakcyjnego. Dostępna w ponad 300 językach. Używana przez miliardy. Stworzona przez ludzi, którzy wnosili wkład, bo tego chcieli, nie dlatego, że im płacono.

Linux: system operacyjny obsługujący większość internetu, większość chmury, większość urządzeń z Androidem, większość superkomputerów świata. Tworzony i utrzymywany przez rozproszoną społeczność kontrybutorów. Żadna pojedyncza firma go nie kontroluje.

Oprogramowanie open source ogólnie: fundament współczesnej technologii. React, Python, PostgreSQL, Kubernetes, TensorFlow — narzędzia napędzające światowe oprogramowanie zostały zbudowane kolaboracyjnie, często bez bezpośredniego wynagrodzenia.

Te projekty udowodniły coś nadzwyczajnego: że rozproszone społeczności zmotywowanych ludzi mogą budować rzeczy dorównujące lub przewyższające to, co produkują korporacje z miliardami dolarów.

Co mogliby zbudować właściciele

Teraz dodaj to, czego wolontariusze nigdy nie mieli:

Zbieżność ekonomiczna. Każdy kontrybutor zarabia proporcjonalnie do swojego wkładu. Nie dobroczynność. Nie dobra wola. Własność.

Zarządzanie. Kontrybutorzy nie tylko budują — decydują. Co budować dalej. Jak alokować zasoby. Jaki obrać kierunek. Ludzie wykonujący pracę kształtują pracę.

Skala motywacji. Wolontariat przyciąga ułamek potencjalnej puli — ludzi z wystarczającą ilością czasu, przywileju i idealizmu, by pracować za darmo. Własność przyciąga wszystkich. Pielęgniarka, która nie może poświęcić setek godzin na wolontariat, może wnosić wiedzę dziedzinową w trakcie swojego dnia pracy, korzystając z narzędzi, z których już korzysta, zdobywając udział, z którego faktycznie korzysta.

Kumulujące się zyski. W open source kontrybutorzy dają, a społeczność korzysta. W Your 99 kontrybutorzy dają, społeczność korzysta, produkt się ulepsza, przychody rosną, dystrybucje się zwiększają, więcej ludzi dołącza, więcej ludzi wnosi wkład. Koło zamachowe ma ekonomiczne paliwo, jakiego wolontariat nigdy nie miał.

Co Wikipedia zrobiła dla wiedzy. Co Linux zrobił dla systemów operacyjnych. Your 99 może zrobić dla każdej kategorii oprogramowania. A potem dla AI. A potem dla infrastruktury obliczeniowej. A potem dla rzeczy, których sobie nie wyobrażamy, bo nigdy nie mieliśmy społeczności na takiej skali z taką zbieżnością.


Część 4 — Dlaczego nierobienie niczego jest prawdziwym ryzykiem

To nie jest oferta rekrutacyjna. To ocena ryzyka.

Obecna trajektoria jest jasna: laboratoria AI budują coraz potężniejsze systemy, kontrolowane przez coraz mniej ludzi, trenowane na coraz bardziej intymnych danych ludzkich, bez znaczącego zarządzania ze strony dotkniętych tym ludzi.

Optymistyczna wersja tej trajektorii: AI czyni wszystko lepszym, firmy są odpowiedzialnymi zarządcami, a ludzkość na tym korzysta. Możliwe. Nie gwarantowane.

Pesymistyczna wersja: AI koncentruje władzę jeszcze bardziej, eliminuje miejsca pracy bez dystrybucji zysków ekonomicznych, a ludzie, którzy zbudowali modele, podejmują decyzje dotyczące miliardów bez odpowiedzialności.

Realistyczna wersja jest gdzieś pomiędzy. Ale zakres możliwych wyników jest szeroki — od ogromnych korzyści po egzystencjalne obawy. A ludzie, którzy mają najwięcej do stracenia — my wszyscy — mają najmniejszy wpływ na to, który wynik otrzymamy.

Your 99 nie jest jedyną odpowiedzią. Ale jest odpowiedzią.

Mówi: ludzie, którzy korzystają z tych narzędzi, którzy generują dane je trenujące, którzy dostarczają feedback je ulepszający, którzy od nich codziennie zależą — ci ludzie powinni mieć własność i zarządzanie.

Nie jako abstrakcyjna zasada. Jako struktura prawna. Jako mechanizm ekonomiczny. Jako żywa, funkcjonująca społeczność udowadniająca, że alternatywa jest nie tylko możliwa, ale lepsza.

Czekanie, aż rządy uregulują AI, przyniosło oświadczenia o zaniepokojeniu i bardzo niewiele regulacji. Czekanie, aż firmy same się uregulują, przyniosło rady etyczne rozwiązywane, gdy stawały się niewygodne. Czekanie, aż „ktoś" to naprawi, przyniosło czekanie.

Nie czekamy. Budujemy.

Nie dlatego, że jesteśmy pewni, że to zadziała. Dlatego, że koszt próby i porażki jest skromny — trochę czasu, trochę wysiłku, trochę oprogramowania, które nie było potrzebne. A koszt niepodjęcia próby, jeśli trajektoria będzie kontynuowana bez kontroli, to wszystko.


Do czego zmierzamy

Społeczność, w której:

  • Każdy cyfrowy produkt, z którego korzystasz, jest własnością jego użytkowników
  • AI jest ulepszane przez ludzi, którzy z niego korzystają, i ci ludzie posiadają ulepszenie
  • Moc obliczeniowa jest współdzielona, nie gromadzona
  • Wiedza dziedzinowa to uznawany wkład, nie eksploatowany zasób
  • Ludzie, którzy tworzą wartość — korzystając, budując, myśląc, troszcząc się — posiadają wartość, którą tworzą
  • Kierunek najpotężniejszej technologii, jaką kiedykolwiek zbudowano, jest kształtowany przez wielu, nie przez niewielu

To nie jest Faza 1. To nie jest Faza 5. To horyzont. Każda decyzja, którą podejmujemy teraz — który produkt zbudować jako pierwszy, jak społeczność dyskutuje, jaki ton nadajemy, jakie wartości osadzamy — albo zbliża nas do tego, albo od tego oddala.

Wybieramy zbliżanie.


Ten dokument jest idealistyczny. Powiedzieliśmy to na początku. Ale rozważ alternatywę: zaakceptowanie, że pięć firm i ich zarządy zadecydują o przyszłości AI, pracy, przepływu informacji, tego, co jest prawdziwe, a co wygenerowane. To nie jest pragmatyzm. To kapitulacja przebrana za realizm.

Wolimy szczery idealizm od wygodnej kapitulacji.

Wersja dokumentu: 1.0 — Marzec 2026 — your99.co/vision