Zanim pojawił się dźwięk. O generowaniu muzyki, intencji i potrzebie usłyszenia siebie
Inner Motion - emocja, zanim stanie się muzyką.
1. Zanim pojawił się dźwięk
Czasami wystarczy spojrzeć w niebo. Jaskółki krążą nisko, tną powietrze, gonią się bez wyraźnego celu, a jednak w ich ruchu jest rytm. Nie da się go zapisać nutami, ale da się go usłyszeć. I zanim zdążysz to nazwać, w głowie już gra muzyka. Innym razem kot bawi się na podłodze. Coś przesuwa, coś popycha łapą, coś nagle ucieka spod nosa. Krótkie pauzy, nagłe przyspieszenia, chwile napięcia i rozluźnienia. Znowu – nie dźwięk, tylko struktura. A jednak w środku zaczyna się układać melodia albo puls. Takich momentów jest więcej, niż się wydaje. Prószy śnieg – miękko, równo, bez pośpiechu – i gdzieś pod tym obrazem pojawia się spokojna, rozciągnięta muzyka. Kapie deszcz, nieregularnie, z różną intensywnością – i w głowie odzywa się rytm, który nie chce być idealny, bo właśnie w tym jego sens.
Muzyka nie zawsze zaczyna się od instrumentu. Częściej zaczyna się od obserwacji. Od ruchu, światła, tempa dnia. Od rzeczy, które nie mają z dźwiękiem nic wspólnego, a jednak uruchamiają coś bardzo konkretnego. To jest ten moment, którego nie da się zaplanować. Nie da się go zamówić. Nie da się włączyć jednym przyciskiem. On po prostu przychodzi. I równie szybko potrafi zniknąć.
Wiele osób zna to uczucie. Słyszysz coś w głowie – fragment, klimat, napięcie – ale nie zawsze potrafisz to złapać. Czasem brakuje narzędzi. Czasem umiejętności. Czasem czasu. A czasem po prostu odpowiedniego języka, żeby to, co bezkształtne, stało się dźwiękiem. I właśnie w tej luce, między tym, co się pojawia w głowie, a tym, co można usłyszeć na zewnątrz, zaczyna się cała reszta tej opowieści.
2. Głosy w głowie - skąd one się biorą?
To, co pojawia się w głowie, nigdy nie bierze się znikąd. Nawet jeśli przychodzi nagle, nawet jeśli wydaje się zupełnie nowe, jest zbudowane z rzeczy, które już tam są. Z dźwięków zasłyszanych kiedyś mimochodem, z muzyki słuchanej latami, z emocji przypisanych do konkretnych brzmień. Z doświadczeń, które osadziły się głębiej, niż pamiętamy. Muzyk nie dorasta w ciszy. Nikt nie dorasta w ciszy. Każdy ma swój krajobraz dźwiękowy: radio grające w tle, kasety puszczane w kółko, pierwsze płyty, koncerty, których nie da się zapomnieć. To wszystko zostaje. Nie jako gotowe melodie, ale jako sposób myślenia o muzyce. O tym, co jest napięciem, a co ulgą. Co jest ciszą, a co hałasem. Co jest „za dużo”, a co wciąż jeszcze „za mało”.
Jeśli ktoś wychowuje się na konkretnym gatunku, zaczyna w nim myśleć. Jazzman słyszy akordy, zanim je nazwie. Ktoś, kto dorastał z gitarową muzyką, słyszy ciężar i przestrzeń między uderzeniami. Ktoś inny myśli barwą, tłem, ciągłością. To nie jest świadomy proces. To raczej coś w rodzaju języka, który przyswaja się latami, aż w końcu przestaje się zauważać, że w ogóle się nim posługujemy. Dlatego trudno mówić o „czystej” oryginalności. Muzyka zawsze jest dialogiem z tym, co było wcześniej. Nawet wtedy, gdy próbuje się od tego uciec. Nawet wtedy, gdy świadomie łamie się zasady. Żeby coś złamać, trzeba najpierw wiedzieć, że istnieje. W tym sensie każdy twórca nosi w sobie cudze głosy. Nie jako kopie, ale jako ślady. Fragmenty rytmów, charakterystyczne przejścia, ulubione napięcia harmoniczne. One nie są cytatami. Są odruchem. Tak jak akcent w mowie zdradza, skąd pochodzimy, tak styl zdradza, czego słuchaliśmy i czym nasiąkliśmy.
I tu pojawia się pytanie, które dziś wraca z nową siłą: skoro człowiek przez lata „uczy się” muzyki, słuchając innych, to gdzie dokładnie przebiega granica między inspiracją a kopiowaniem? Co właściwie zostaje w głowie - konkretne dźwięki czy raczej sposób ich układania? Bo kiedy w myślach zaczyna grać muzyka, rzadko jest to cudzy utwór. To raczej coś, co brzmi znajomo, ale nie daje się przypisać do jednego źródła. Jak zdanie w języku, którego nikt wcześniej dokładnie tak nie wypowiedział, choć wszystkie słowa już istniały. I właśnie z tego miejsca - z tej mieszaniny wpływów, pamięci i intuicji - zaczyna się pytanie o narzędzia. Nie o to, czy wolno z nich korzystać, ale o to, czy potrafią nadążyć za tym, co i tak już w nas gra.
3. Intencja - miejsce, w którym zaczyna się autorstwo
Zanim pojawi się jakikolwiek dźwięk, jest decyzja. Czasem bardzo cicha, prawie niezauważalna. Chęć sprawdzenia, dokąd to prowadzi. Potrzeba nadania kształtu temu, co do tej pory było tylko przeczuciem. To jest moment, w którym zaczyna się autorstwo - nie wtedy, gdy pojawia się pierwsza nuta, ale wtedy, gdy ktoś postanawia, że chce ją usłyszeć. Autorstwo nie polega wyłącznie na fizycznym wykonaniu. Pianista nie „wymyśla” dźwięków młotkiem, gitarzysta nie tworzy struny od nowa, a producent nie konstruuje prądu, który zasila komputer. Każdy z nich korzysta z narzędzi, które istniały wcześniej. Różnica polega na tym, jak i po co z nich korzysta.
Intencja jest tym, czego narzędzie nie ma. Nie ma jej instrument, nie ma jej program, nie ma jej algorytm. Narzędzia reagują, przetwarzają, umożliwiają. Ale nie chcą. Nie odczuwają niedosytu. Nie wracają do pomysłu dlatego, że „to jeszcze nie to”. To robi człowiek. Dlatego autorstwo zaczyna się wcześniej niż dźwięk. Zaczyna się w pytaniu: „a co, jeśli spróbuję inaczej?”. W korekcie. W odrzuceniu wersji, która technicznie jest poprawna, ale wewnętrznie nie gra. W powtarzaniu próby nie dlatego, że coś nie działa, tylko dlatego, że nie oddaje tego, co było w głowie. W tym sensie różne narzędzia są tylko różnymi sposobami skracania dystansu. Między wyobrażeniem a rezultatem. Jedne wymagają lat praktyki, inne cierpliwości, jeszcze inne precyzyjnego opisu. Ale żadne z nich nie podejmuje decyzji za twórcę. To zawsze człowiek wybiera, co zostaje, a co ląduje w koszu.
I tu pojawia się napięcie, które dziś budzi tyle emocji. Bo jeśli autorstwo zaczyna się od intencji, a nie od fizycznego aktu wykonania, to pytanie przestaje brzmieć: „kto wygenerował dźwięk?”, a zaczyna brzmieć: „kto chciał, żeby on w ogóle powstał?” To przesunięcie perspektywy nie rozwiązuje wszystkich problemów. Nie zamyka dyskusji o prawach, granicach i odpowiedzialności. Ale zmienia punkt wyjścia. Zamiast patrzeć na efekt, każe spojrzeć na proces. Na ciąg decyzji, wątpliwości i korekt, które prowadzą do tego, że coś w końcu zostaje nazwane „utworem”. Dopiero z tego miejsca można sensownie rozmawiać o sprzeciwach. Bo one nie biorą się z samej technologii, ale z lęku przed rozmyciem tej właśnie intencji. Przed sytuacją, w której autorstwo przestaje być czytelne. I właśnie tam pojawiają się głosy przeciwników.
4. Sprzeciwy i obawy - o co tak naprawdę toczy się spór
Sprzeciw wobec generowania muzyki rzadko jest jednowymiarowy. Najczęściej nie wynika z niechęci do technologii samej w sobie, ale z poczucia, że coś, co do tej pory było kruche i trudno osiągalne, nagle zaczyna się rozmywać. Kompozytorzy, tekściarze, muzycy – każdy z tych zawodów opiera się na czasie. Na latach nauki, prób, porażek i stopniowego budowania własnego języka. I właśnie ten czas bywa dziś odczuwany jako zagrożony. Najczęściej przywoływanym argumentem są prawa autorskie. Pytanie o to, na czyjej twórczości „uczy się” system, wraca jak refren. Bo jeśli algorytm analizuje istniejące utwory, to czy nie korzysta z cudzej pracy bez zgody? Czy nie powiela stylów, które ktoś budował przez dekady? To są pytania zasadne. Dotykają fundamentu twórczości jako pracy, a nie tylko ekspresji.
Ale pod spodem kryje się coś jeszcze. Coś, o czym mówi się ciszej. Dla wielu twórców problemem nie jest sam dźwięk, tylko jego obecność w obiegu. Muzyka przestała funkcjonować wyłącznie jako dzieło. Stała się treścią. A treści żyją dziś w rytmie algorytmów mediów społecznościowych, gdzie liczy się tempo, powtarzalność i zdolność przebicia się przez szum. W tym świecie producent nie jest już tylko kimś, kto odpowiada za brzmienie. Coraz częściej odpowiada też za widoczność. Za to, czy utwór „zadziała”, czy zostanie podchwycony, czy wpisze się w aktualną estetykę platformy. I nagle pojawia się obawa, że generowanie muzyki w skali masowej może jeszcze bardziej przechylić tę równowagę.
Nie chodzi wyłącznie o to, że powstaje dużo muzyki. Chodzi o to, że powstaje jej za dużo na raz, w bardzo podobnym czasie, w bardzo podobnych formatach. A algorytmy lubią to, co da się łatwo sklasyfikować. To, co mieści się w znanych ramach. To, co nie wymaga ryzyka. Z perspektywy twórców rodzi się więc pytanie: czy w świecie, w którym dźwięk można wygenerować szybciej niż go odsłuchać, wciąż będzie miejsce na proces? Na długie dojrzewanie utworu? Na nieopłacalną ciszę między jedną próbą a drugą? Obawy producentów często idą jeszcze dalej. Dotyczą nie tylko praw, ale pozycji. Jeśli dźwięk staje się łatwiej dostępny, to co dzieje się z rolą kogoś, kto do tej pory był pośrednikiem między pomysłem a realizacją? Czy jego doświadczenie nadal będzie potrzebne, czy stanie się luksusem?
To nie są lęki oderwane od rzeczywistości. One wynikają z realnych zmian w sposobie dystrybucji i konsumpcji muzyki. Z faktu, że dziś nie wystarczy stworzyć coś dobrego. Trzeba jeszcze sprawić, żeby ktoś to zobaczył. Albo raczej – żeby algorytm pozwolił to zobaczyć. Dlatego sprzeciw wobec generowania muzyki często dotyczy nie tyle samego aktu tworzenia, co warunków, w jakich to tworzenie ma sens. Strachu przed utratą przestrzeni, w której muzyka była czymś więcej niż chwilowym sygnałem w strumieniu treści. I właśnie w tym miejscu rozmowa przestaje być techniczna. Staje się rozmową o wartości pracy twórczej w świecie, który coraz szybciej nagradza ilość i zasięg.
5. Zwolennicy i entuzjaści - nie zamiast, tylko obok
Dla wielu osób generowanie muzyki nie zaczęło się od ideologii ani od chęci skracania drogi. Zaczęło się od ciekawości. Od prostego pytania: „a co, jeśli spróbuję?”. Bez planu na karierę, bez ambicji podboju rynku. Raczej z potrzeby sprawdzenia, czy to, co do tej pory istniało tylko w głowie, da się wreszcie usłyszeć. W tej perspektywie AI nie jest rywalem dla muzyków, tylko kolejnym narzędziem - takim, które pozwala ominąć bariery, a nie zastąpić sens pracy. Bariery bywają różne. Brak formalnego wykształcenia. Brak czasu na wieloletnie ćwiczenia. Brak dostępu do studia, sprzętu, ludzi. Albo po prostu brak jednego, konkretnego języka, którym dałoby się opisać to, co już brzmi w środku.
Dla entuzjastów generowania muzyki ważny jest proces. Próby, wersje, poprawki. Często bardzo dalekie od jednego kliknięcia. Zmiana kilku słów, korekta kierunku, odrzucenie całych fragmentów. To nie jest bierne przyjmowanie efektu. To dialog. Może nietypowy, ale wciąż oparty na decyzjach i smaku. Pojawia się też coś, o czym rzadko mówi się głośno: poczucie ulgi. Dla wielu osób generowanie muzyki oznacza zdjęcie presji. Brak konieczności bycia „wystarczająco dobrym” instrumentalnie, technicznie, produkcyjnie. Zamiast tego pojawia się przestrzeń na eksperyment. Na sprawdzenie pomysłu bez zobowiązań. Bez myślenia o odbiorze, zasięgach, oczekiwaniach.
To podejście często stoi w kontrze do logiki social mediów. Paradoksalnie, dla części twórców AI staje się sposobem na wyjście z wyścigu. Na tworzenie dla siebie, nie dla algorytmu. Na robienie rzeczy, które nie muszą się „klikać”, bo nie muszą w ogóle być publikowane. Entuzjaści rzadko mówią o rewolucji. Częściej o odkrywaniu. O momentach, w których coś nagle zaskakuje. O tym szczególnym uczuciu, gdy wygenerowany dźwięk jest blisko tego, co wcześniej było tylko mglistym przeczuciem. Nie idealny. Nie skończony. Ale rozpoznawalny.
W tym sensie generowanie muzyki bywa bardziej szkicem niż dziełem. Sposobem na uchwycenie kierunku, a nie gotowym celem. Czymś, co można dalej rozwijać, zmieniać, porzucić albo zostawić dokładnie takim, jakie jest. Może właśnie dlatego dla części osób ta forma tworzenia ma sens. Nie dlatego, że jest łatwiejsza, ale dlatego, że jest inna. Nie obiecuje mistrzostwa. Oferuje możliwość usłyszenia siebie - nawet jeśli to „siebie” dopiero się kształtuje.
6. Inspiracja czy kopiowanie - gdzie przebiega granica?
Granica między inspiracją a kopiowaniem nigdy nie była ostra. Nawet zanim pojawiły się algorytmy. Zawsze była raczej strefą przejścia niż linią. Czymś, co łatwiej poczuć niż jednoznacznie zdefiniować. Muzyk słucha muzyki innych i coś z niej w nim zostaje. Nie pojedyncze nuty, nie konkretne melodie, ale sposób prowadzenia napięcia, charakterystyczna dynamika, pewna wrażliwość na ciszę albo gęstość dźwięku. To nie jest kopiowanie wprost. To raczej przyswajanie języka, który później zaczyna żyć własnym życiem. W historii muzyki ten proces był normą. Blues przenikał do rocka, rock do metalu, elektronika do popu, jazz do wszystkiego. Styl nie był własnością jednego twórcy. Był wspólną przestrzenią, w której różni artyści mówili swoimi wersjami tego samego języka. Różnice pojawiały się w akcentach, w wyborach, w tym, co dla kogo było najważniejsze.
Kopiowanie zaczynało się tam, gdzie znikała intencja. Gdzie celem było odtworzenie rozpoznawalnego wzorca bez dodania czegokolwiek od siebie. Bez ryzyka. Bez decyzji. Wtedy utwór stawał się cieniem innego utworu, a nie jego kontynuacją. Dziś to rozróżnienie wraca w nowym kontekście. Bo systemy generujące muzykę potrafią analizować ogromne zbiory danych. Widzą powtarzalności, schematy, statystyczne podobieństwa. I to budzi lęk, że granica zostanie zatarta. Że zamiast inspirować się językiem, zaczniemy nieświadomie powielać cudze zdania. Ale warto zadać sobie pytanie, czy ten mechanizm różni się jakościowo od ludzkiego uczenia się. Człowiek też „trenuje się” na cudzej twórczości. Przez lata słuchania, grania, analizowania. Różnica polega na skali i tempie, nie na samym procesie. I to właśnie skala oraz tempo zmieniają sposób, w jaki zaczynamy o tym myśleć.
Niepokój rodzi się tam, gdzie znika czas na przetwarzanie. Gdzie inspiracja nie ma szansy dojrzeć. Gdzie efekt pojawia się szybciej, niż zdążymy zadać sobie pytanie, czy to jeszcze nasze. To nie jest problem samego narzędzia, ale sposobu jego użycia. Dlatego granica nie przebiega między „człowiekiem” a „AI”. Przebiega między świadomym wyborem a bezrefleksyjnym powielaniem. Między użyciem narzędzia do poszukiwań a użyciem go do produkcji podobieństw. Między chęcią usłyszenia czegoś nowego a chęcią odtworzenia tego, co już się sprawdziło.
W tym sensie inspiracja wciąż wymaga pracy. Nawet jeśli narzędzie potrafi wiele, to nie potrafi wziąć odpowiedzialności za efekt. Nie potrafi powiedzieć: „to jest moje”. To pozostaje po stronie człowieka. I właśnie tam - w decyzji, w selekcji, w odrzuceniu tego, co zbyt znajome - wciąż istnieje różnica. Może więc pytanie nie brzmi: „czy to jest kopia?”, ale raczej: „czy ktoś wziął za to odpowiedzialność?”. Bo kopiowanie jest zawsze bezpieczne. Inspiracja - nigdy.
7. Odbiorcy - ci, którzy słyszą efekt, nie proces
Dla większości odbiorców muzyka zaczyna się w momencie, gdy naciskają „play”. Nie wcześniej. Nie interesuje ich ścieżka, która do tego doprowadziła, ani narzędzia użyte po drodze. Liczy się to, co zostaje po pierwszych kilku sekundach. Czy coś porusza. Czy zatrzymuje. Czy sprawia, że chce się słuchać dalej. Słuchacz rzadko pyta, w jaki sposób dany utwór powstał. Tak było zawsze. Mało kto zastanawiał się, czy gitarzysta użył konkretnego wzmacniacza, czy producent spędził nad aranżacją tygodnie, czy godziny. Te pytania pojawiały się głównie wewnątrz środowiska. Między twórcami. Odbiorca słyszał efekt końcowy i oceniał go intuicyjnie.
W tym sensie generowanie muzyki nie zmienia podstawowego doświadczenia słuchania. Jeśli utwór działa to po prostu działa. Jeśli nie, zostaje pominięty. Odbiorca nie czuje obowiązku doceniania procesu. Nie nagradza wysiłku. Reaguje na emocję. To bywa trudne do przyjęcia dla twórców, bo odsłania pewną niewygodną prawdę: muzyka zawsze była bardziej o odbiorze niż o intencji. Nawet jeśli intencja była szczera, a proces wymagający, to nie gwarantowało to uwagi. Teraz ta logika po prostu stała się bardziej widoczna.
Dla fanów nowej twórczości generowanej narzędziami cyfrowymi liczy się często coś jeszcze: świeżość. Nie w sensie nowości stylistycznej, ale dostępności emocji. Dźwięk, który pojawia się szybko, reaguje na chwilę, na nastrój, na impuls. Muzyka, która nie musi być monumentalna, żeby być ważna w danym momencie. Część odbiorców traktuje ją jak szkic dźwiękowy. Coś, co towarzyszy pracy, spacerowi, wieczorowi. Bez potrzeby przywiązywania się do autora, historii, kontekstu. To zmienia relację z muzyką, ale jej nie unieważnia. Raczej przesuwa ją w stronę codzienności.
Co ciekawe, dla wielu słuchaczy sama świadomość, że utwór powstał inaczej, nie jest ani zaletą, ani wadą. Bywa neutralna. A czasem wręcz niewidoczna. Jeśli coś brzmi autentycznie, to takie pozostaje - niezależnie od tego, czy powstało w studiu, czy w dialogu z algorytmem. Może właśnie tutaj kryje się największy rozdźwięk w całej dyskusji. Twórcy rozmawiają o procesach, prawach i odpowiedzialności. Odbiorcy reagują na efekt. Te dwa światy zawsze były od siebie oddzielone. Teraz po prostu trudniej udawać, że są tym samym. Z perspektywy słuchacza pytanie nie brzmi: „jak to powstało?”, tylko: „czy coś we mnie poruszyło?”. I dopóki muzyka potrafi to zrobić, dopóty będzie znajdować swoich odbiorców - niezależnie od drogi, którą przeszła.
8. Dlaczego chcieliśmy to przeżyć sami
Na końcu tej drogi nie ma manifestu. Nie ma też próby udowadniania czegokolwiek światu. Jest doświadczenie. Sprawdzenie, co się stanie, kiedy pozwoli się dźwiękom z głowy znaleźć drogę na zewnątrz - bez presji, bez ambicji rywalizacji, bez konieczności zajmowania stanowiska w sporze. Tak powstała playlista Still Moving. Jest dostępna publicznie, na YouTube, na profilu https://www.youtube.com/@ObscuraHeart i to w zasadzie wszystko, co trzeba o niej wiedzieć.
Jeśli komuś się trochę spodoba - dobrze. Jeśli ktoś przejdzie obok obojętnie - też dobrze. Nie była tworzona po to, żeby kogokolwiek przekonywać. Nie powstała jako odpowiedź na debatę, tylko jako jej osobisty kontekst. Jako próba przełożenia wewnętrznego ruchu na coś, co da się usłyszeć. To ważne rozróżnienie. Bo to doświadczenie nie było cudze. Nie powstało z potrzeby wykorzystania czyjejś pracy ani z chęci skrócenia drogi do uznania. Było naszym sposobem na sprawdzenie, czy narzędzie - jakiekolwiek by było - potrafi nadążyć za intencją. Czy da się zachować uważność. Czy da się powiedzieć „nie” temu, co zbyt oczywiste. Czy da się zostawić coś niedoskonałego, bo właśnie takie miało być.
Muzyka z tej playlisty nie musi mieć kontekstu. Nie musi być analizowana. Może po prostu być. Towarzyszyć. Przepłynąć. Zniknąć. I to też jest w porządku. Bo ostatecznie nie chodziło o to, żeby odpowiedzieć na pytanie, czy generowanie muzyki ma sens w ogóle. Chodziło o to, czy miało sens dla nas. Czy pozwoliło nam usłyszeć coś, co wcześniej istniało tylko jako ruch, napięcie, przeczucie. Jeśli tak się stało, to wystarczy. Reszta - spory, definicje, granice - będzie się toczyć dalej. I pewnie musi się toczyć. Ale równolegle zawsze będzie istniała ta cicha, prywatna przestrzeń, w której muzyka powstaje nie po to, żeby konkurować, tylko żeby sprawdzić, czy wciąż potrafi poruszyć coś po drodze. I dopóki to się dzieje, dopóty warto próbować. Nawet jeśli tylko dla siebie.
Epilog. A gdyby zagrali to ludzie?
Czasem pojawia się jeszcze jedno pytanie. Takie, które wraca przy okazji rozmów o generowaniu muzyki, ale rzadko zostaje dopowiedziane do końca. Co by było, gdyby te same dźwięki zagrali prawdziwi muzycy, na prawdziwych instrumentach, na prawdziwym koncercie?
Czy coś by się zmieniło? Być może zmieniłaby się forma. Pojawiłaby się fizyczność – oddech, napięcie dłoni, drobne niedoskonałości, które sprawiają, że dźwięk żyje w przestrzeni. Może inaczej układałaby się dynamika. Może niektóre momenty trwałyby dłużej, inne zniknęłyby szybciej. Koncert zawsze dodaje własną warstwę interpretacji.
Ale pytanie nie dotyczy tylko brzmienia. Dotyczy sensu. Jeśli utwór porusza, to czy robi to dlatego, że ktoś widzi muzyków na scenie, czy dlatego, że rozpoznaje w dźwięku coś własnego? Czy obecność ciała jest warunkiem autentyczności, czy tylko jej jednym z możliwych nośników? Muzyka grana na żywo ma w sobie coś, czego nie da się zapisać ani wygenerować: wspólne tu i teraz. Ale jednocześnie wiele utworów porusza nas w samotności - w słuchawkach, bez świadków, bez gestów. I nie tracą przez to znaczenia.
Może więc pytanie nie brzmi: „czy to byłby inny utwór?”, ale raczej: „czy to byłoby inne doświadczenie?”. Bo muzyka nie jest jedną rzeczą. Jest relacją. A relacje zmieniają się w zależności od kontekstu. Być może kiedyś te dźwięki zabrzmiałyby na scenie. A może nigdy. I jedno, i drugie byłoby w porządku. Bo ich sens nie zależy od miejsca, instrumentów ani liczby słuchaczy. Zależy od tego, czy coś zostało przekazane – nawet jeśli tylko na chwilę.