Stoisz na plaży, patrzysz w horyzont. Do butelki, którą wrzucisz zaraz w morze wkładasz list z dzisiejszą datą. List do samego siebie z przyszłości. Zamykasz ją szczelnie i zapominasz o niej na lata. Aż pewnego dnia, na innym kontynencie (bo sporo przez te lata zmieniło się w Twoim życiu) butelka dobija do brzegu. Ta sama. Twoja. W środku – nienaruszony list. Otwierasz ją, a echo przeszłości uderza silniej niż możesz się spodziewać.
Ja swoją butelkę z listem wrzuciłem w morze nieświadomie. W czerwcu 2019 roku.
Nie miała szklanej formy, lecz artykułu w magazynie „Marketing w praktyce”. Jej okładka, z perspektywy czasu niemal profetyczna, pytała wprost: „Google, czy mam z tobą rozmawiać?”.

Pamiętacie czerwiec 2019 roku? Asystenci Głosowi byli wtedy jak egzotyczne, nieco nieporadne zwierzęta w cyfrowym zoo. Alexa na komendę puszczała Despacito, a Asystent Google potrafił ustawić minutnik na jajka na miękko. Fascynujące, ale dla większości – wciąż gadżet. Ciekawostka. Technologiczny gadżet, który zbiera kurz na kuchennym blacie. (prawda Ariel, Michał). A z Siri śmiali się wszyscy z branży – mówiąc o niej jak o tym najgorszym uczniu z klasy muzycznej 😉
Wtedy interfejs głosowy był bardziej obiektem kpin niż poważnych analiz. Napisałem tekst o erze smart speakerów. Ale nie o głośnikach jako takich. Pisałem o fundamentalnej zmianie, która za nimi stała.
W artykule, między analizą pierwszych wdrożeń i technologii, napisałem zdanie. Wtedy zaledwie hipoteza. Dzisiaj – dowód w sprawie.
„Z czasem umiejętność bezproblemowej komunikacji z technologią za pomocą głosu będzie tak naturalna, jak dziś korzystanie z klawiatury”.
Sześć lat. Tyle potrzebowała przyszłość, by stać się teraźniejszością.
Przeszłość puka do drzwi
Szybkie cięcie. Jesteśmy w czerwcu 2025 roku. Kilka tygodni temu oglądałem prezentację Google I/O, na której światło dzienne ujrzał Project Astra – multimodalny agent AI, z którym rozmawia się, patrząc na świat przez obiektyw kamery. Słucham, jak naturalnie i z ludzką wręcz atencją – GPT-4o od OpenAI prowadzi konwersacje.
To już nie jest dialog na linii człowiek-maszyna, który polega na rzucaniu sztywnych komend. To jest relacja. Partnerstwo. Płynna, intuicyjna rozmowa, w której technologia nie jest już narzędziem, do którego musimy się dostosować. To ona dostosowuje się do nas. Do naszego głosu, tonu, kontekstu.
Dokładnie tak, jak sześć lat temu opisywałem świat, w którym klawiatura staje się opcjonalna.
Widzieć las, nie tylko drzewa
To nie była magia ani kryształowa kula. To była prosta obserwacja kierunku. Bo wyczuwanie trendów to nie sztuka przepowiadania przyszłości. To sztuka uważnego słuchania i odróżniania szumu od sygnału.
W 2019 roku sygnał był cichy, ale wyraźny.
Sygnał nr 1: Technologia. Smart speakery nie były celem samym w sobie. Były globalnym poligonem doświadczalnym dla NLP (Natural Language Processing) i NLU (Natural Language Understanding). Podobniej jak wcześniej Google Glasses, które zostały uznane za porażkę Giganci nie inwestowali miliardów w to, byśmy mogli głosowo zamawiać pizzę. Inwestowali w zbieranie danych i trenowanie modeli, które miały nauczyć maszyny naszego najbardziej naturalnego interfejsu – mowy. Maszyna najpierw musiała nauczyć się rozpoznawać pojedyncze słowa, by dzisiaj móc pisać wiersze.
Sygnał nr 2: Człowiek. Widziałem nie tylko technologię, ale i frustrację. Weźmy klawiaturę – tą z kktórej teraz korzystasz. Układ QWERTY nie został zaprojektowany dla Twojej wygody ani szybkości. Wręcz przeciwnie. Powstał w latach 70. XIX wieku, by spowolnić pisanie na mechanicznych maszynach, których ramiona notorycznie się zacinały, gdy ktoś pisał zbyt sprawnie.
To nie jest żart. Zostaliśmy z interfejsem zaprojektowanym celowo jako nieefektywny, stworzonym z powodu – uwaga!!!! – ułomności maszyny, która od dekad leży na śmietniku.
To samo działo się w 2019 roku w świecie smartfonów i laptopów. Zmęczenie klikaniem, przewijaniem, stukaniem w klawisze było symptomem tej samej choroby: człowiek dostosowuje się do ograniczeń maszyny, a nie odwrotnie. Głos był oczywistą drogą. Najbardziej naturalną, dzięki której nie będziemy musieli już nienaturalnie stukać palcami w plastik (albo drogie szkiełko, jeżeli macie iPhona 16 ;-).
Mój artykuł nie był więc wróżbą. Był postawieniem kropki nad „i”. Diagnozą, że stary interfejs jest już na tyle niewydolny, a nowa technologia na tyle obiecująca, że rewolucja jest nieunikniona. Połączeniem tych dwóch sygnałów w logiczną całość.
Jaki szept dzisiaj ignorujesz?
Historia mojego artykułu z 2019 roku to nie jest opowieść o tym, że miałem rację. To opowieść o tym, jak ważne jest, by patrzeć dalej niż na koniec kwartału. By szukać w technologii nie tylko odpowiedzi na dzisiejsze problemy, ale też pytań jutro.
Dlatego dzisiaj, kiedy wszyscy ekscytują się AI generującym obrazy i tekst, ja zadaję sobie inne pytanie: jaki jest następny interfejs,medium, rozwiązanie, technologia, która dzisiaj wydaje nam się nieporadna i niepotrzebny? Gdzie jest ten cichy sygnał, który większość z nas traktuje jako szum? I ignoruje?
Może to interfejsy mózg-komputer (Neuralink)? Może rozszerzona rzeczywistość, która wciąż czeka na swój „moment iPhone’a”? A może coś zupełnie innego, co dopiero kiełkuje w garażu jakiegoś start-upu?
Bo dzisiaj – kiedy pędzimy, największą przewagą nie jest umiejętność szybkiego reagowania. Jest nią umiejętność cichego, uważnego słuchania. Zanim jeszcze ktokolwiek zacznie krzyczeć. Swoją drogą – dlatego tak bardzo kocham podcasty i SŁUCHANIE mądrzejszych ode mnie. Starszych, młodszych. Ale mądrzejszych.
A Ty? Jaki cichy szept technologii dzisiaj ignorujesz?
Niech #AI będzie z Wami!