Oczy do słyszenia – tajemnice funkcjonowania mózgu.

Nasze uszy nie są po prostu „oczami do słyszenia”. Dźwięk zawiera zupełnie inną informację o świecie niż światło. Światło towarzyszy nam zwykle przez cały czas, natomiast dźwięk (słyszalny dla człowieka) powstaje wtedy, gdy coś się zmienia . na przykład kiedy obiekty wibrują, zderzają się, przemieszczają, psują albo wybuchają. Słuch to zmysł dotyczący zdarzeń, a nie scen. W związku z tym układ słuchowy przetwarza dane słuchowe w inny sposób, niż robi to układ wzrokowy z danymi wzrokowymi. Zasadniczym zadaniem wzroku jest informowanie nas, gdzie co się znajduje, natomiast głównym zadaniem słuchu jest zawiadamianie nas, że coś się dzieje.

Słuch jest pierwszym zmysłem, jaki rozwija się u płodu w łonie matki. W tych obszarach mózgu, które odpowiadają za słyszenie, najwcześniej kończy się okres rozwojowy zwany mielinizacją, podczas którego „przewody” łączące neurony pokrywają się specjalną powłoką. Powłoka ta izoluje neurony i umożliwia szybsze przesyłanie sygnałów elektrycznych. W układzie wzrokowym mielinizacja kończy się dopiero w kilka miesięcy po narodzinach. Słuch jest ostatnim zmysłem, który przestaje funkcjonować, gdy tracimy świadomość (kiedy zapadamy w drzemkę, odbiór pozostałych danych zmysłowych słabnie, natomiast dźwięków, staje się intensywniejszy ), i jednocześnie pierwszym zmysłem, który zaczyna funkcjonować, gdy odzyskujemy przytomność. Jesteśmy wzrokowcami, a jednak nieustannie używamy słuchu, aby kontrolować, co dzieje się w naszym otoczeniu, w obrębie 360 stopni. Słuch uzupełnia naszą percepcję wzrokową – choć zwykle nie zwracamy większej uwagi na ścieżkę dźwiękową, każdy film pozbawiony dźwięku okazałby się niezwykle nudny1. Oczywiście, słuch jest także zmysłem mowy. Sposoby w niniejszym rozdziale pokazują, że słyszymy nie tylko same fizyczne dźwięki, ale również znaczenia, jakie niosą [Sposób 49.], nawet na progu świadomości [Sposób 48.]. Podobnie jak w przypadku widzenia, to czego doświadczamy, nie jest dokładnie tym, co istnieje w rzeczywistości. Doświadczamy tak naprawdę pewnej słuchowej konstrukcji, jaką buduje nasz mózg. Na koniec zbadamy trzy aspekty rozumienia języka: ukrytą w słowach symbolikę dźwięków [Sposób 50.], sposób, w jaki dzielimy zdania na frazy [Sposób 51.], oraz to, skąd dokładanie wiemy, co znaczą słowa [Sposób 52.].

Sposób 44. Mierzenie czasu uszami

Słuch jest zmysłem wyspecjalizowanym w zbieraniu informacji z czwartego wymiaru. Podczas gdy wzrok powiadamia nas, gdzie się coś znajduje, słuch informuje nas, kiedy coś się dzieje. Rozdzielczość czasowa słuchu jest bez porównania lepsza od rozdzielczości czasowej wzroku. Obraz kinowy składający się z 24 klatek na sekundę odbieramy jako coś jednolitego, a nie jako 24 krótkie scenki. Natomiast 24 stuknięcia w ciągu sekundy usłyszymy jako serię stuknięć – nie zlewają się one bowiem w jeden ciągły dźwięk. W praktyce Posłuchajmy trzech plików dźwiękowych:

  • 24 stuknięcia na sekundę, przez 3 sekundy
    (http://www.mindhacks.com/book/44/24Hz.mp3; format MP3),
  • 48 stuknięć na sekundę, przez 3 sekundy
    (http://www.mindhacks.com/book/44/48Hz.mp3;format MP3),
  • 96 stuknięć na sekundę, przez 3 sekundy
    (http://www.mindhacks.com/book/44/96Hz.mp3; format MP3).

Przy częstotliwości 24 klatek na sekundę, film zlewa się w jednolity obraz. Przy częstotliwości 24 stuknięć na sekundę, dźwięk odbieramy jako odrębne stuknięcia. Przy czterokrotnie zwiększonej częstotliwości wciąż słyszymy pojedyncze dźwięki. Choć nie jesteśmy w stanie ich policzyć, wiemy, że słyszany dźwięk składa się z wielu drobniejszych dźwięków, a nie z jednostajnego szumu. Zanim zleje się w jednostajne wrażenie, „migotanie” słuchowe trwa przy dużo wyższych częstotliwościach niż migotanie wzrokowe. Jak to działa Wiele elementów układu słuchowego jest wyraźnie wyspecjalizowanych w pomiarze czasu. Niemniej jednak zasadnicze znaczenie ma tutaj budowa narządu odbierającego dźwięki (ucha). W przypadku oczu, światło jest przekształcane na impulsy nerwowe w powolnym procesie chemicznym zachodzącym w komórkach receptorowych. Natomiast w uchu, dźwięk przekształcany jest na impulsy nerwowe szybko i mechanicznie. Wibracje dźwiękowe przemieszczają się w dół kanału słuchowego i są przekazywane przez drobne kosteczki słuchowe do ślimaka, który stanowi ośrodek precyzyjnej inżynierii w uchu wewnętrznym. W ślimaku przeprowadzana jest analiza częstotliwości odbieranych dźwięków, ale nie przez zespół obwodów neuronowych, lecz w sposób mechaniczny. Ślimak zawiera specjalną błonę, zwaną błoną podstawową, która dzięki temu, że ma różną grubość, może w różnych miejscach wibrować z odmienną częstotliwością. To właśnie tutaj, w błonie podstawowej, informacja dźwiękowa jest przekształcana na sygnały nerwowe, co również odbywa się w sposób mechaniczny, a nie chemiczny. W błonie podstawowej znajdują się receptory, zwane komórkami włoskowymi. Pokryte są one mikroskopijnymi włoskami połączonymi z mikroskopijnymi włóknami. Gdy włoski zostaną poruszone przez ruch błony podstawowej, mikroskopijne niteczki naciągają się i jak liny, które ciągnięte otwierają drzwi, otwierają mnóstwo drobniutkich kanalików na włoskach. Naładowane atomy, które znajdują się w płynie wypełniającym ślimak, wpływają do komórek włoskowych i w ten sposób dźwięk staje się ładunkiem elektrycznym, czyli językiem mózgu. Reakcję wywołują nawet mikroskopijne ruchy w skali atomowej. W przypadku dźwięków o niskiej częstotliwości (do 1500 cyklów na sekundę) każdy cykl dźwięków może wywołać odrębną grupę impulsów elektrycznych. Natomiast przy wyższych częstotliwościach nie są kodowane pojedyncze cykle, lecz ich średnie natężenie. Komórki w mózgu, które otrzymują dane słuchowe, odpalają ładunki elektryczne szybciej niż wszystkie inne neurony, nawet z częstotliwością do 500 razy na sekundę. Taki system sprawia, że układ słuchowy jest bardzo wrażliwy na częstotliwość oraz na informację dotyczącą czasu, zawartą w falach dźwiękowych. Odbiera on zarówno niskie dźwięki o częstotliwości 20 Hz (1 Hz to jedno uderzenie na sekundę), jak i wysokie dźwięki, o częstotliwości nawet do 20 000 Hz. Wrażliwość układu słuchowego na różnice czasowe jest wyjątkowa – wykrywa on okresy ciszy między dźwiękami, które trwają jedynie 1-ną tysięczną sekundy. Natomiast układ wzrokowy musi widzieć dany obraz przez około 30 tysięcznych sekundy, aby informacja o nim dotarła do świadomości. Co więcej, dzięki wyspecjalizowanym układom w uchu i w mózgu synchronizacja między uszami jest jeszcze dużo lepsza, niż ma to miejsce w przypadku oczu. Gdy dźwięk dociera do jednego ucha o 20 milionowych części sekundy wcześniej niż do drugiego, jesteśmy w stanie wykryć tę mikroskopijną różnicę [Sposób 45.]. Natomiast mrugnięcie oka trwa około 100 000 mikrosekund, czyli 5000 razy dłużej. Choć w sytuacjach, kiedy informacje napływające od różnych zmysłów są sprzeczne, dominuje wzrok [Sposób 53.], nic dziwnego, biorąc pod uwagę wrażliwość naszych uszu, że to słuch dominuje nad wzrokiem, jeśli chodzi o określanie czasu występowania zdarzeń. Tę wrażliwość na różnice czasowe wykorzystujemy na wiele sposobów – zwłaszcza gdy rozkoszujemy się muzyką lub gdy pojawienie się nowych dźwięków ostrzega nas, że w naszym otoczeniu nastąpiła jakaś zmiana.

Sposób 45. Wykrywanie źródła dźwięku

Nasze uszy informują nas, z którego mniej więcej kierunku pochodzą docierające do nas dźwięki. Niektóre z tych dźwięków, na przykład echo, nie zawsze mają wartość informacyjną, dlatego wykształciliśmy odpowiedni mechanizm filtracji. Zasadniczym zadaniem układu słuchowego jest informowanie nas, gdzie co się znajduje. Jak trudne jest to zadanie, ilustruje porównanie, które przytaczają naukowcy zajmujący się badaniem tego układu. Wąskim gardłem przy odbiorze informacji w układzie wzrokowym są komórki zwojowe, które łączą oczy z mózgiem [Sposób 13.]. Każde oko ma ich około miliona, tak więc w naszym układzie wzrokowym znajduje się około dwóch milionów kanałów, które mogą służyć określaniu, gdzie co się znajduje. Natomiast wąskie gardło w układzie słuchowym obejmuje tylko dwa kanały: po jednym bębenku w każdym uchu. Próby lokalizowania dźwięków za pośrednictwem wibracji dochodzących do uszu, przypominają próby określenia liczby łodzi pływających po jeziorze oraz ich położenia, poprzez obserwację zmarszczek na wodzie w dwóch kanałach prowadzących od brzegu jeziora. Jest to raczej trudne zadanie. Nasz mózg posługuje się całym szeregiem wskazówek w celu rozwiązania tej trudności. Dźwięk dociera do pierwszego ucha, znajdującego się bliżej jego źródła, zanim dotrze do drugiego, a różnica w czasie zależy od położenia źródła dźwięku. Ta wskazówka nazywana jest międzyuszną różnicą czasu. Ponadto odbierany dźwięk jest bardziej intensywny w uchu znajdującym się bliżej jego źródła, niż w drugim. Ta wskazówka nazywana jest międzyuszną różnicą natężenia. Obie wskazówki służą do lokalizowania dźwięków w płaszczyźnie poziomej: różnica czasowa (opóźnienie) w przypadku dźwięków o niskiej częstotliwości, a różnica natężenia w przypadku dźwięków o wysokiej częstotliwości (jest to tzw. dwoista teoria lokalizacji dźwięków). W celu lokalizowania dźwięków w płaszczyźnie pionowej wykorzystywane są inne wskazówki w ramach widma dźwięku (wskazówki widmowe. Kierunek, z którego dochodzi dźwięk, wpływa na to, w jaki sposób jest on przekształcany przez ucho zewnętrzne (czyli tę część ciała, którą wszyscy znamy i uważamy za ucho, a która dla neurologów jest jedynie małżowiną uszną). W zależności od kierunku, z którego dochodzi dźwięk, różne częstotliwości zostają wzmocnione lub stłumione. Wskazówki widmowe są następnie wzmacniane przez fakt, że nasze uszy różnią się nieco między sobą kształtem, a przez to w odmienny sposób zniekształcają wibracje dźwiękowe. Podstawową wskazówką jest międzyuszna różnica czasu. Dominuje ona w sytuacji, gdy informacje otrzymywane za pośrednictwem różnych wskazówek są sprzeczne. Wskazówki widmowe, dostarczające informacji o lokalizacji w pionie (wymiar góra-dół), nie są tak dokładne i często wprowadzają w błąd. W praktyce Innym wprowadzającym w błąd czynnikiem jest echo. Przyjrzenie się sposobowi, w jaki sobie z nim radzimy, pomaga odczuć, jak skomplikowanym zadaniem jest lokalizacja dźwięków. Zazwyczaj otoczenie, w którym się znajdujemy – nie tylko ogromne aule, ale również zwyczajne pokoje w naszych mieszkaniach – to pomieszczenia, gdzie powstaje echo. Określenie, skąd pochodzi jeden dźwięk, jest trudne, a co dopiero, gdy musimy rozróżniać między pierwotnymi dźwiękami a ich odbiciami docierającymi do nas z różnych stron. Wpływ tych nieprawidłowych lokalizacji jest łagodzony za pomocą specjalnego mechanizmu stanowiącego element układu słuchowego. Echa, które docierają do naszych uszu w trakcie krótkiego okresu czasu, są łączone z oryginalnym dźwiękiem docierającym wcześniej. Mózg wykorzystuje tylko pierwszą partię dźwięku, by określić lokalizację całej grupy. Uwidacznia to zjawisko zwane efektem Haasa lub efektem pierwszeństwa. Efekt Haasa pojawia się, gdy odstęp czasowy między dwoma dźwiękami nie przekracza progu 30 – 50 tysięcznych sekundy. Jeśli odstęp między dźwiękami jest większy, czyli powyżej tego progu, usłyszymy je jako dwa dźwięki dobiegające z dwu różnych miejsc, czyli tak, jak powinniśmy. Właśnie takie zjawisko nazywamy echem. Jeśli sami zrobimy echo i będziemy zmniejszać opóźnienie z wartości powyżej progu do wartości poniżej progu, usłyszymy, jak do działania przystępuje mechanizm, który umożliwia nam radzenie sobie z echem. Efekt Haasa można zademonstrować, klaszcząc w dłonie przed dużą ścianą2. Należy stanąć w odległości 10 metrów od ściany i klasnąć. Z takiej odległości echo klaśnięcia dotrze do naszych uszu po ponad 50 tysięcznych sekundy od dotarcia pierwotnego dźwięku klaśnięcia. Usłyszymy wówczas dwa dźwięki. Następnie podchodzimy do ściany, klaszcząc przy każdym kroku. W odległości około 5 metrów od ściany – gdy echo dociera do naszych uszu w mniej niż 50 tysięcznych sekundy po pierwotnym dźwięku klaśnięcia – przestajemy słyszeć dźwięki dochodzące z dwu różnych miejsc. Lokalizacja echa połączyła się z lokalizacją pierwotnego dźwięku: oba dźwięki odbieramy jako jeden, pochodzący z miejsca pierwotnego klaśnięcia. Tak w praktyce wygląda efekt pierwszeństwa, który jest jednym z wielu mechanizmów, jakie istnieją po to, by łatwiej było nam określać lokalizację dźwięków. Jak to działa Początkowe obliczenia wykorzystywane do lokalizowania dźwięków przeprowadzane są w pniu mózgu, w obszarze o dziwnej nazwie: jądro oliwki górne. Ponieważ ustalanie lokalizacji dźwięku rozpoczyna się w pniu mózgu, zaskakujące dźwięki mogą szybko wywołać obrócenie głowy lub ciała, abyśmy do ustalenia, co się dzieje, mogli wykorzystać nasz zmysł o najwyższej rozdzielczości, czyli wzrok. Reakcje te nie mogłyby być takie szybkie, gdyby informacja z obu uszu była łączona na późniejszym etapie przetwarzania. Klasyczny model prezentujący, w jaki sposób przetwarzane są międzyuszne różnice czasu, nazywany jest modelem Jeffressa. Przedstawia go rysunek 4.1. Komórki śródmózgowia wskazują na lokalizację dźwięku, zwiększając częstotliwość wysyłanych sygnałów w odpowiedzi na dźwięk, a każda komórka otrzymuje informacje słuchowe z obu uszu. Komórka, która najczęściej rozbłyskuje, jest tą komórką, która jednocześnie otrzymuje dany sygnał z obu uszu. Ponieważ takie komórki są najbardziej aktywne, gdy dane z obu stron są synchroniczne, neurony te nazywamy detektorami koincydencji.

Rysunek 4.1. Neurony wykorzystywane do obliczania lokalizacji dźwięku rozbłyskują, gdy dane z prawego i lewego ucha docierają do nich jednocześnie. Różnice w opóźnieniach czasowych na łączących je liniach oznaczają, że różny czas dotarcia sygnału do lewego i prawego ucha wywołuje reakcję różnych neuronów. Wyobraźmy sobie, że dźwięk dochodzi z lewej strony, czyli dociera do prawego ucha z bardzo niewielkim opóźnieniem. Jeśli dana komórka otrzyma oba sygnały jednocześnie, stanie się tak dlatego, że sygnał z lewego ucha został gdzieś w mózgu spowolniony, by wyrównać to opóźnienie. Model Jeffressa zakłada, że mózg zawiera szereg neuronów wykrywających koincydencję z określonymi opóźnieniami dla sygnałów pochodzących z obu stron. W ten sposób każda możliwa lokalizacja może być reprezentowana przez aktywność neuronów z wbudowanym mechanizmem opóźniania.


Model Jeffressa może nie być do końca słuszny. Większość potwierdzających go danych neurobiologicznych pochodzi z badań nad płomykówkami3, które potrafią atakować ofiarę w całkowitych ciemnościach. Dane z badań nad drobnymi ssakami sugerują istnienie również innych mechanizmów4.


Posługiwanie się międzyuszną różnicą czasu powoduje niejednoznaczność lokalizacji dźwięku, ponieważ dźwięki niekoniecznie znajdują się na płaszczyźnie poziomej – mogę znajdować się z przodu, z tyłu, powyżej lub poniżej. Dźwięk, który dobiega z prawej strony, z przodu, na poziomie uszu pod kątem 33 stopni, w kategoriach międzyusznych różnic czasu i natężenia brzmi dokładnie tak samo, jak taki sam dźwięk, dobiegający z prawej strony, z tyłu, pod kątem 33 stopni lub z prawej strony, z góry, pod kątem 33 stopni. W związku z tym, mamy do czynienia ze „stożkiem niezgody” w odniesieniu do lokalizacji dźwięku. Zjawisko to ilustruje rysunek 4.2. Zazwyczaj, aby zmniejszyć tę niejasność, wykorzystujemy inne wskazówki, takie jak zniekształcenia powodowane przez uszy (wskazówki widmowe).

Rysunek 4.2. Dźwięki pochodzące z powierzchni „stożka niezgody” dają taką samą międzyuszną różnicę czasu, przez co ich lokalizacja jest niejednoznaczna. Im więcej informacji zawiera dany dźwięk, tym łatwiej go zlokalizować. Łatwiej zlokalizować hałas, który obejmuje różne częstotliwości. Dlatego do dźwięków syren karetek i wozów policyjnych dodawany jest obecnie tzw. biały szum5, który zawiera wszystkie częstotliwości w równych proporcjach, a którego pozbawione były używane dawniej syreny o czystych tonach. Gdy na uszach mamy słuchawki, nie otrzymujemy wskazówek widmowych z małżowin, nie możemy więc lokalizować dźwięków w wymiarze góra-dół. Nie mamy także informacji potrzebnej do określenia, czy dźwięk dochodzi z przodu, czy z tyłu. Nasza umiejętność lokalizowania dźwięków w wymiarze góra-dół jest bardzo słaba, nawet bez słuchawek. Dlatego właśnie dźwięk dochodzący z tyłu, z dołu (gdy np. stoimy na balkonie), brzmi, jakby dochodził tuż zza naszych pleców. Domyślnie lokalizujemy źródła dźwięków albo pośrodku po lewej, albo pośrodku po prawej od naszych uszu – dzięki takiemu ogólnemu wnioskowi wiemy, w którą stronę odwrócić głowę, pomimo niejednoznaczności nie pozwalającej na dokładniejsze określenie położenia źródła dźwięku. Z powodu tych niejednoznaczności przechylamy głowę, gdy nasłuchujemy. Odbierając wielorakie odczyty dotyczące źródła dźwięku, nakładamy na siebie te niejednoznaczności i budujemy złożony, zinterpolowany zbiór dowodów dotyczących miejsca, z którego dochodzi dźwięk. (Ptak, który przechyla głowę, wpatrując się w ziemię, robi dokładnie to samo, gdy nasłuchuje dźwięków poruszającego się robaka6).

Sposób 46. Odkrywanie wysokości dźwięku

To, dlaczego w ogóle postrzegamy wysokość dźwięków, jest odrębną historią. Dźwięki posiadają wysokość, ponieważ nasz mózg ją oblicza, a z pewnością nie robi tego bez przyczyny. Każdy dźwięk jest wibracją powietrza. Efektem różnych amplitud tych drgań jest różne natężenie dźwięków, natomiast efektem różnych częstotliwości jest różna wysokość dźwięków. Dźwięki występujące w przyrodzie składają się zwykle z nałożonych na siebie drgań, które mają różne częstotliwości. Nasze postrzeganie wysokości dźwięków oparte jest na ogólnym wzorze drgań. Jednak wysokość nie zawsze jest jakością, jaką można bezpośrednio wydobyć z informacji dźwiękowej. Trzeba ją wyliczyć. Nasz mózgu musi dokonać pewnego wysiłku, byśmy mogli postrzegać wysokość dźwięków, ale nie do końca wiadomo, dlaczego w ogóle tak się dzieje. Jedna z teorii wyjaśniających, dlaczego w ogóle odbieramy wysokość dźwięków, opiera się na tym, iż wysokość dźwięków wiąże się z wielkością obiektów: ogólnie rzecz biorąc, duże obiekty mają niższą podstawową częstotliwość niż te niewielkie. Wysokość dźwięku, jaką odbieramy, opiera się na tzw. podstawowej wibracji fali dźwiękowej. Jest to podstawowa częstotliwość, z jaką powtarza się drganie. Dźwięki tworzymy, powodując wibracje jakiegoś obiektu (np. uderzając w niego). W zależności od tego, w co i jak uderzamy (a obejmuje to także uderzanie powietrzem o struny głosowe), powodujemy powstanie głównego drgania -podstawowej wibracji – któremu towarzyszą wtórne drgania o wyższej częstotliwości, zwane składowymi harmonicznymi. Drgania harmoniczne, to drgania o częstotliwościach stanowiących całkowite wielokrotności częstotliwości podstawowej (jeśli więc podstawowa wibracja ma częstotliwość 4 Hz, harmoniczna może mieć częstotliwość 8 Hz albo 12 Hz, ale nie np. 10 Hz). Wysokość dźwięku, jaką słyszymy, opiera się tylko na częstotliwości wibracji podstawowej; bez względu na liczbę wibracji harmonicznych, wysokość dźwięku pozostaje taka sama. Niezwykłe jest to, że nawet gdy podstawowa częstotliwość w rzeczywistości nie jest składową danego dźwięku, to i tak słyszymy wysokość opartą na takiej częstotliwości, jaka powinna być. Jeśli dźwięk powtarza się cztery razy na sekundę, ale obejmuje składowe częstotliwości 8 Hz, 12 Hz i 16 Hz, podstawowa częstotliwość wynosi 4 Hz, a my odbieramy odpowiednią dla niej wysokość dźwięku. Nie wiadomo, jak to robimy, ale jedno z wyjaśnień brzmi następująco7: fizyczna budowa błony podstawowej w uchu wewnętrznym sprawia, że reagując na wyższe składowe częstotliwości, wibruje ona z częstotliwością drgania podstawowego. Sam układ ślimaka powoduje, że mózg może go używać do fizycznej reprodukcji obliczeń potrzebnych do ustalenia podstawowych drgań fali dźwiękowej. Odkryta w taki sposób podstawowa wibracja może być następnie wykorzystana przez układ przetwarzania słuchowego, jako informacja równorzędna wobec każdej innej fali dźwiękowej8. Wygląda to tak, jakby odrobina przetwarzania neuronowego przeniosła się do fizycznego projektu ucha – wspaniały przykład czegoś, co niektórzy nazywają inteligencją zewnętrzną (ang. extelligence), czyli przykład wykorzystywania świata zewnętrznego do przeprowadzania procesów poznawczych. W praktyce Złudzenie brakującej wibracji podstawowej pokazuje, jak wygląda konstrukcja dźwięków w uchu. Podstawowa składowa dźwięku, a następnie jej harmoniczne, są po kolei usuwane, jednak mimo to, wysokość dźwięku pozostaje taka sama. Odtwórz plik dźwiękowy ze strony: http://physics.mtsu.edu/~wmr/julianna.html, a usłyszysz serię brzęczyków. Mimo że niższe harmoniczne znikają, dźwięk nie staje się przez to wyższy. Jego wysokość nie zmienia się9. Jak to działa Sposób, w jaki wysokość dźwięku jest obliczana w przypadku dźwięków o wielorakich harmonicznych, można wykorzystać do wywołania złudzenia, w którym wysokość dźwięku wydaje się stale rosnąć, stawać się coraz wyższa i nigdy nie opadać. Nieustannie rosnącego dźwięku możemy posłuchać na stronie internetowej: http://www.kyushu-id.ac.jp/~ynhome/ENG/Demo/2nd/05.html#20. Możemy tam również zobaczyć graficzną ilustrację prezentującą, w jaki sposób konstruowany jest ten dźwięk. Każdy dźwięk składa się z wielorakich dźwięków o różnych harmonicznych. Z każdym kolejnym dźwiękiem zwiększa się częstotliwość harmonicznych. Ponieważ harmoniczne są liczne i równo rozmieszczone, ich częstotliwość może rosnąć, gdyż w chwili, zniknięcia najwyższej z nich, osiągając górną granicę zakresu częstotliwości obejmującego te dźwięki, jednocześnie pojawia się nowa harmoniczna o najniższej częstotliwości. Ponieważ każde przesunięcie wygląda jak przesunięcie na normalnej skali, nasz mózg sprawia, że słyszymy dźwięk, który nieustannie staje się coraz wyższy. Efekt ten ulega wzmocnieniu, gdyż najwyższe i najniższe składowe każdego dźwięku są cichsze, przez co zamazują się dokładne granice częstotliwości całego dźwięku10.

Sposób 47. Zachować równowagę

Uszy nie służą tylko do słyszenia, pomagają nam również zachować równowagę. Słyszenie nie jest jedynym zadaniem ucha wewnętrznego. Znajdują się tam półkoliste kanały wypełnione płynem – po dwa w płaszczyźnie poziomej i pionowej – które mierzą przyśpieszenie ruchów głowy. Jest to układ przedsionkowy, który służy nam do utrzymywania równowagi. Warto zwrócić uwagę na to, że układ ten jest w stanie wykryć tylko przyśpieszenie lub zwolnienie, natomiast nie sam ruch, jako taki. Wyjaśnia to, dlaczego wydaje nam się, że się poruszamy, kiedy duża część naszego pola widzenia porusza się w tym samym kierunku – na przykład wtedy, gdy siedzimy w pociągu, a rusza sąsiedni pociąg, mamy wrażenie, że to nasz zaczął jechać. W przypadku ruchu, który zaczyna się powoli, informacja o przyśpieszeniu jest zbyt słaba, byśmy zostali przekonani o tym, iż się poruszamy.


To dobrze, że układ ten wykrywa tylko przyśpieszenie, a nie sam bezwzględny ruch, gdyż inaczej odczuwalibyśmy fakt, że poruszamy się w przestrzeni kosmicznej wokół Słońca z prędkością 70 tysięcy mil na godzinę. Albo, co gorsza, w sposób bezpośredni doświadczalibyśmy względności – wtedy dopiero wszystko by się skomplikowało
– T.S.


W praktyce Następnym razem, gdy wsiądziesz do pociągu, spróbuj wykorzystać tę „plamkę ślepą” w odczuwaniu ruchu. Zamknij oczy i skoncentruj się na kołysaniu pociągu z boku na bok. Mimo braku informacji wzrokowej będziesz odczuwać zmianę ruchu z boku na bok. Natomiast jeśli pociąg nie przyśpiesza ani nie zwalnia, nie będziesz dysponować żadnymi innymi informacjami niż pamięć, które mogłyby wskazać Ci kierunek, w jakim podróżujesz. Wyobraź sobie, że świat na zewnątrz porusza się w innym kierunku. Sprawdź, czy możesz odnieść przez sekundę wrażenie, iż bardzo szybko przemieszczasz się w przeciwną stronę. Oczywiście, taki efekt najłatwiej wywołać w płynnie jadącym pociągu, więc w tym przypadku w uprzywilejowanej sytuacji znajdują się Czytelnicy z Japonii11. Jak to działa Każda zmiana prędkości, z jaką się poruszamy, powoduje ruch płynu znajdującego się w kanałach układu przedsionkowego oraz wygięcie włosków pokrywających powierzchnię tych kanałów (mieszczące się tutaj komórki włoskowate działają tak samo, jak komórki włoskowate w ślimaku, które służą do wykrywania dźwięku, z tym, że wykrywają one zaburzenia w płynie, a nie w powietrzu). Następnie sygnały przesyłane są nerwem przedsionkowym do mózgu, gdzie zostają wykorzystane w celu dostosowania naszej równowagi oraz ostrzegania o zmianach w ruchu. Zawroty głowy mogą wynikać z nieprawidłowego funkcjonowania układu przedsionkowego lub być efektem rozbieżności między informacją wzrokową a informacją płynącą z tego układu. W chorobie lokomocyjnej odczuwamy ruch, ale obraz widzianego świata jest nieruchomy (np. wnętrze samochodu lub statku). Natomiast inna jest przyczyna zawrotów głowy w sytuacji, gdy nie odczuwamy ruchu, lecz dostrzegamy, jak widziany świat się porusza, choć nie powinien – ze względu na paralaksę, drobne ruchy głowy wywołują duże przesunięcie w różnicy między stopami a tym, co widzimy obok. (Przyczyny zawrotów głowy są bardziej skomplikowane niż samo niedopasowanie między ruchem wykrywanym przez układ przedsionkowy a ruchem wykrywanym przez układ wzrokowy, ale rozbieżność ta stanowi jedną z nich). Z tego właśnie powodu, gdy czujemy, że zaczyna nam się kręcić w głowie w sytuacji, w której się poruszamy, natomiast świat widziany pozostaje nieruchomy, możemy sobie pomóc, koncentrując wzrok na poruszającym się punkcie (np. horyzoncie podczas podróży statkiem)12. Natomiast jeśli porusza się widziany świat, a my nie, najlepiej po prostu nie patrzeć (np. gdy zaczyna nam się nagle kręcić w głowie albo kiedy oglądamy film wywołujący chorobę lokomocyjną).


Oznacza to prawdopodobnie, że byłoby mi mniej niedobrze po obejrzeniu filmu Blair Witch Project, gdybym oglądając go, siedział w wibrującym fotelu.
-T.S.


Sposób 48. Wykrywanie dźwięków na granicy pewności

Czy możemy wyodrębnić sygnał wśród szumu? Wzory i regularności są często głęboko ukryte, ale my jesteśmy zaskakująco biegli w ich odkrywaniu. Zdolności percepcyjne i wrażliwość zmysłowa każdego człowieka jest inna, a przez to znacząco różne są również progi wykrywania słabych lub niejednoznacznych bodźców. Nasz mózg doskonale radzi sobie z wykorzystywaniem chaotycznych danych i często potrafi odczytać przekaz w otoczeniu wypełnionym zakłóceniami, filtrując chaotyczną informację tła, aby wyodrębnić nawet najsłabsze sygnały. W praktyce Fragment piosenki Binga Crosby”ego „White Christmas” został ukryty w pliku dźwiękowym, który znajduje się na stronie internetowej niniejszej książki (http://www.mindhacks.com/book/48/whitechristmas.mp3; format MP3). Plik ten trwa 30 sekund i składa się przede wszystkim z zakłóceń, trzeba więc się naprawdę dobrze wsłuchać, by wykryć moment, w którym zaczyna się piosenka. Rozpoczyna się ona w pierwszej dziesięciosekundowej części, w drugiej albo w trzeciej słychać ją bardzo słabo, dlatego trzeba się bardzo skoncentrować. Czytelnik w pełni przekona się o działaniu niniejszego sposobu, jeśli wysłucha pliku dźwiękowego, zanim będzie wiedzieć, w jaki sposób ukryto w nim piosenkę. Nie powinien więc czytać dalej, zanim nie posłucha tego pliku. Jak to działa Jeśli w pełnym zakłóceń tle pliku dźwiękowego udało Ci się usłyszeć dźwięki piosenki Binga Crosby”ego, czeka Cię niespodzianka. Powyższy plik dźwiękowy jest czystym szumem, a mimo naszej zapowiedzi piosenka „White Christmas” wcale nie jest w nim ukryta (jeśli czytasz te słowa, a nie wysłuchałeś jeszcze pliku, zachęć do eksperymentu kogoś innego). Choć nie każdy wykrywa mające znaczenie dźwięki w szumie tła, robi to znacząca część populacji. W doświadczeniu przeprowadzonym przez Merckelbacha i van de Vena13 niemal jedna trzecia studentów słyszała „White Christmas”, gdy odtwarzano im podobną ścieżkę z nagranym szumem. Istnieje wiele opinii na temat przyczyn tego zjawiska oraz tego, jakiego rodzaju cechy towarzyszą skłonności do wykrywania znaczenia w przypadkowych próbkach. Wymienieni powyżej badacze odkryli, że ta umiejętność jest szczególnie związana ze stopniem skłonności do fantazjowania – mierzącym bogactwo i częstość wykorzystania wyobraźni – oraz ze skłonnością do halucynacji – mierzącą intensywność naszej wyobraźni i niezwykłe doświadczenia percepcyjne. Jeśli Ty sam lub osoba, na której przeprowadziłeś to doświadczenie, usłyszeliście w szumie „White Christmas”, nie musicie się niczego obawiać. Skłonności zmierzone w badaniu Merckelbacha i van de Vena miały łagodny charakter i z całą pewnością nie są wyznacznikiem jakiejkolwiek nienormalności (w końcu piosenkę usłyszała jedna trzecia badanych!), a każdemu z nas w jakimś stopniu przytrafiają się halucynacje (rodzajem halucynacji jest chociażby to, że nie widzimy plamki ślepej oka). Niemniej jednak wygląda na to, że osoby, które wierzą w pewne zjawiska paranormalne, są bardziej skłonne do odkrywania wzorów w informacji, która nie ma żadnej struktury. Brugger i jego współpracownicy14 odkryli, że osoby, które wierzą w percepcję pozazmysłową (szósty zmysł), częściej niż osoby, które w nią nie wierzą, wykrywają niosącą znaczenie informację w przypadkowych wzorach składających się z kropek. Sceptyków kusiło, by argument ten uznać za dowód nieistnienia percepcji pozazmysłowej i podobnych zjawisk, lecz powyższe badanie wykazało jednocześnie, że odkrycie niosących znaczenie wzorów jest bardziej prawdopodobne, jeśli kropki prezentowane są lewej połowie pola widzenia bez względu na to, czy badana osoba wierzy w szósty zmysł, czy też nie. Lewa połowa pola widzenia łączy się z prawą półkulą mózgu, co oznacza, że przypadkowe wzory przetwarzane przez prawą półkulę okazują się bardziej „sensowne” niż te przetwarzane przez obie półkule naraz lub przez lewą półkulę. Fakt ten wskazuje na kolejny aspekt asymetrii półkul mózgowych [Sposób 69.], a jednocześnie sugeruje, że ludzie, którzy wierzą w zjawiska paranormalne, mogą wykazywać większą aktywność prawej półkuli niż lewej, a to zostało poparte wieloma innymi badaniami. Taki układ aktywności półkul mózgowych wiąże się nie tylko z wiarą w zjawiska paranormalne. Według badaczy może on być także związany ze stylem poznawczym, który promuje „luźne” skojarzenia między pojęciami a informacją semantyczną, czyli stylem charakterystycznym dla osób, które często widzą powiązania między ideami, jakich nie dostrzegają inni. Taka skłonność ma pewne zalety, ponieważ łączy się z kreatywnością i z myśleniem lateralnym. Odkrywanie wzorów, których nie dostrzegają inni, może czasami okazać się bardzo użyteczną umiejętnością. Choć może prowadzić również do przekonania o obecności nieistniejących wzorów, z całą pewnością umożliwia dostrzeganie wyraźnych wzorów w sytuacjach, kiedy innym osobom uniemożliwia to odbierany szum tła. – Vaughan Bell

Sposób 49. Mowa to szerokopasmowe wejście do naszych głów

Gdy tylko mózg zaklasyfikuje dany dźwięk jako element mowy, od razu sięga po cały zestaw sztuczek na wyciśnięcie z niego maksymalnej ilości informacji. Mowa nie jest zwyczajnym zestawem dźwięków. Mózg traktuje ją inaczej niż zwykłe dźwięki. Przetwarzaniem mowy zajmuje się zasadniczo lewa półkula mózgu, podczas gdy zwykłe dźwięki przetwarzane są w prawej półkuli. Podział ten jest mniej wyraźny u kobiet, dlatego szybciej dochodzą one do formy po wylewach obejmujących obszary odpowiedzialne za sprawność językową, które znajdują się w lewej półkuli. Podział ten jest mniej wyraźny u kobiet, dlatego szybciej dochodzą one do formy po wylewach obejmujących obszary odpowiedzialne za sprawność językową, które znajdują się w lewej półkuli. Jeśli wiemy, że usłyszymy zaraz dźwięki mowy, nasz mózg natychmiast przyjmuje wiele doskonale skonstruowanych założeń, których celem jest wyodrębnienie z dźwięku użytecznej informacji. Jest to właśnie ten specjalny sposób przetwarzania dźwięków zaklasyfikowanych jako dźwięki mowy, pozwalający naszemu mózgowi na rozumienie mowy, która dociera do nas z prędkością 50 fonemów na sekundę – taką prędkość można w rzeczywistości osiągnąć tylko przy zastosowaniu przyśpieszonego odtwarzania nagrania. W praktyce By przekonać się, jak fakt, że spodziewamy się usłyszeć dźwięki mowy, wpływa na to, co słyszymy, warto posłuchać prezentacji zniekształconych dźwięków, którą skonstruowali Bob Shannonn i jego współpracownicy z House Ear Institute (http://www.hei.org/ research/depts/aip/audiodemos.htm). Warto przede wszystkim posłuchać pliku MP3, gdzie najpierw słyszymy głos, który jest zniekształcony tak bardzo, że nic nie można zrozumieć, a następnie zostaje on powtórzony sześciokrotnie i za każdym razem jakość dźwięku jest coraz lepsza (http://www.hei.org/ research/depts/aip/increase_channels.mp3). Dopiero przy trzecim lub czwartym powtórzeniu jesteśmy w stanie stwierdzić, co mówi ten głos. Posłuchajmy pliku jeszcze raz. Tym razem nasz mózg wie, czego nasłuchiwać, więc rozumiemy słowa o wiele wcześniej. Nie jesteśmy już teraz w stanie usłyszeć tylko samych zakłóceń. Jak to działa Zdania składają się z posiadających znaczenie wyrazów, układanych zgodnie z gramatyką, czyli systemem, za pomocą którego z ograniczonego zasobu słów możemy budować nieskończoną liczbę zdań złożonych i różnic znaczeniowych. Natomiast wyrazy składają się z morfemów – najmniejszych jednostek posiadających znaczenie. Morfem „-ek” pozwala na przykład na przekształcenie słowa „dom” w „domek”. Przekazuje on pewne znaczenie. Istnieją również zasady określające, jak można dalej łączyć słowa w bardziej skomplikowane wyrazy. Z kolei morfemy składają się z fonemów. Są to podstawowe dźwięki języka, na przykład słowo „dom” zawiera trzy fonemy: [d o m]. Fonemy nie odpowiadają dokładnie literom alfabetu, weźmy chociażby początkowy fonem wyrazu „szum”. Fonemy różnią się też od sylab. Na przykład słowo „domek” składa się z dwóch morfemów i pięciu fonemów, a ma tylko dwie sylaby (i oczywiście pięć liter). Każdy język ma inny zestaw fonemów. W języku angielskim jest ich około 40 – 45. Człowiek jest w stanie wymówić ponad 100 fonemów, ale tylko jako małe dziecko. Natomiast gdy zaczyna uczyć się języka, nastawia się na fonemy, które słyszy, i uczy się ignorować pozostałe. Wymawiamy zwykle 10 – 15 fonemów na sekundę, a gdy mówimy szybko 20 – 30 fonemów na sekundę. Wówczas bez problemu rozumieją nas osoby, których ojczystym językiem jest język, jakim się posługujemy (kiedy odtwarzamy nagraną wypowiedź z przyśpieszeniem, jesteśmy w stanie zrozumieć do 50 fonemów na sekundę). Przy takiej prędkości dźwięki nie pojawiają się po kolei i odrębnie, lecz jeden nachodzi na drugi. Gdy wymawiamy jeden fonem, nasze wargi i język już układają się w pozycji potrzebnej do wymówienia kolejnego, więc dane słowo brzmi inaczej w zależności od tego, jakie słowo pojawia się przed nim i po nim. Jest to jedna z przyczyn trudności w stworzeniu skutecznego programu służącego do rozpoznawania mowy. Innym powodem, dla którego trudno stworzyć program zamieniający dźwięki na wyrazy, jest fakt, że warstwy fonemów, morfemów i wyrazów mieszają się ze sobą i wzajemnie na siebie wpływają. Słuchacze wiedzą, jakiego powinni spodziewać się dźwięku i jakiego wzoru dźwięków (morfemu), a nawet, jaki będzie kolejny wyraz. Strumień danych słuchowych jest porównywany z tym wszystkim i dlatego rozumiemy mowę, nawet jeśli fonemy (takie jak [be] i [pe], które można również zidentyfikować po ruchu warg [Sposób 59.]) są do siebie bardzo podobne i łatwo można je pomylić. Brak takich abstrakcyjnych warstw – oraz konieczność rozumienia znaczenia zdania i gramatyki tylko po to, by określić, czym są fonemy – utrudnia przeprowadzenie takiej procedury przez oprogramowanie. Jest to kolejny przykład na to, w jak zasadniczy sposób oczekiwania wpływają na percepcję. W przypadku informacji słuchowej to, że mózg wie, iż dany dźwięk jest rzeczywiście mową, sprawia, że przekierowuje on tę informację do całkowicie innego obszaru niż ten, który wykonuje ogólne przetwarzanie dźwięków. Gdy dźwięk zostaje przekazany do obszaru odpowiedzialnego za przetwarzanie mowy, jesteśmy w stanie usłyszeć słowa, których z pewnością nie moglibyśmy usłyszeć, gdybyśmy myśleli, że słyszymy po prostu jakiś hałas, nawet jeśli sam dźwięk byłby identyczny. Przekonajmy się o tym, odtwarzając drugiej osobie zsyntetyzowane głosy stworzone z nałożonych na siebie sinusoidalnych fal dźwiękowych http://www.biols.susx.ac.uk/home/Chris_Darwin/SWS). Strona ta zawiera wiele nagranych zdań i do każdego oferuje sztuczną, wygenerowaną wersję tego samego wzoru dźwięków. Jesteśmy w stanie rozpoznać dany wzór dźwięków jako głos tylko wtedy, gdy wiemy, co to jest. Należy odtworzyć drugiej osobie sinusoidalny zapis mowy w pliku MP3 (zwanym SWS na tej stronie), nie mówiąc jej, że jest to ludzki głos. Osoba ta usłyszy tylko przerywany dźwięk przypominający biper. Potem odtwórzmy oryginalne nagranie głosu wypowiadającego to zdanie, a następnie znowu plik SWS. Po uzyskaniu tej informacji dźwięk zostaje przekierowany do obszaru odpowiedzialnego za rozpoznawanie mowy i będzie brzmieć zupełnie inaczej. Wiedza, że dźwięk ten tak naprawdę składa się z angielskich słów (a więc z fonemów i morfemów, które można odgadnąć), pozwala na przeprowadzenie całego procesu rozpoznawania, który poprzednim razem nie mógł mieć miejsca.

Sposób 50. Okrągłe wymawianie okrągłych rzeczy

Dźwięki słów również niosą znaczenie, na co wskazuje fakt, że „okrągłe” słowa nazywają okrągłe rzeczy. Steven Pinker w swojej znanej książce pt. Language Instinct16, poświęconej naturze języka, omawia pewne kontinuum znaczeniowe składające się z angielskich czasowników frob, twiddle i tweak, które służą do opisu czynności polegającej na zmienianiu ustawień w komputerze lub sprzęcie stereo. Internetowy słownik języka hakerów „Jargon File” podaje następujące wyjaśnienie pod hasłem frobnicate (http://www.catb.org/~esr/jargon/html/F/ frobnicate.html): Użycie: wyrazy frob, twiddle i tweak wyznaczają kolejne punkty pewnego kontinuum. Frob konotuje bezcelowe manipulowanie przyciskami; twiddle oznacza manipulowanie nimi z grubsza, szukanie właściwego ustawienia „na oko”; z kolei tweak oznacza dokładne dostrajanie. Jeśli ktoś przekręca pokrętło oscyloskopu i uważnie go dostraja, użyjemy czasownika tweak; jeśli po prostu je przekręca, ale patrzy jednocześnie na wyświetlacz, do opisania tej czynności zastosujemy czasownik twiddle; natomiast jeśli kręci sobie tym pokrętłem dla samej przyjemności kręcenia, użyjemy frob17. Słowo frob brzmi mocno i szorstko, kojarzy się więc z wykonywaniem jakiegoś działania z grubsza. Twiddle brzmi delikatniej, jakby drobniej. Tweak, które oznacza najdokładniejsze dostrajanie, jeszcze bardziej kojarzy się ze skrupulatnością. Wygląda na to, że już sam dźwięk wymawianych słów niesie znaczenie. W praktyce Dwie figury przedstawione na rysunku 4.3 to maluma i takete. Która z figur to maluma, a która takete?

Rysunek 4.3. Jedna z powyższych figur to maluma, a druga to takete – która jest która? Nie zepsuj tego eksperymentu, czytając teraz kolejny ustęp! A gdy będziesz wykonywał go na innych osobach, zasłoń całą stronę oprócz rysunku. Prawdopodobnie – podobnie jak większość ludzi, którzy mieli okazję popatrzeć na takie figury od końca lat 20. ubiegłego wieku, gdy Wolfgang Köhler skonstruował ten eksperyment – stwierdziłeś, że kształt po lewej to takete, a ten po prawej to maluma. Podobnie jak w przypadku frob i tweak, czyli słów, które odnoszą się do rodzaju nazywanego ruchu, takete wydaje się mieć charakter „kanciasty”, podczas gdy maluma kojarzy się z krągłością18. Jak to działa Wyrazy posiadają wielowarstwowe znaczenia, nie są jedynie odnośnikami do jakiegoś słownika znaczeń znajdującego się w mózgu. Biorąc pod uwagę szybkość mowy, potrzebujemy maksymalnej liczby wskazówek dotyczących znaczenia, by przyśpieszyć rozumienie. Wyrazy będące przypadkowymi dźwiękami byłyby nieekonomicznym rozwiązaniem. Wskazówki dotyczące znaczenia mowy mogą zostać zawarte w intonacji, z jaką wymawiamy dane słowa, w otaczających je wyrazach oraz w samym ich dźwięku. Mózgi to maszyny działające na zasadzie skojarzeń, co jest w komunikacji w pełni wykorzystywane do przekazywania znaczeń. Okrągły kształt na rysunku 4.3 jest kojarzony z dużymi, pełnymi obiektami, posiadającymi duże rezonujące przestrzenie, jak na przykład bębny, wydające przy uderzeniu dudniące dźwięki. Nasze wargi otwierają się szeroko, gdy wymawiamy słowo „maluma”. Rezonuje ono w naszych ustach. Natomiast kanciasty kształt przypomina raczej werbel albo kryształ. Terkocze i klekocze. Odpowiadający mu dźwięk zawiera liczne głoski zwarte, jak t-czy k-, przy wymawianiu których powietrze wyrzucane jest z ust na zewnątrz. Tak w praktyce działa oparty na skojarzeniach mechanizm mózgu. To samo dotyczy wyrazów frob i tweak. Ruch, jaki nasze usta i język wykonują, by wymówić słowo frob, jest mocny i szorstki, tak jak czynność, którą czasownik ten oznacza. Język układa się płasko, a dźwięk wydobywa się z całych ust. Gdy wymawiamy słowo tweak [twi:k], nie tylko nazywamy pewien ściśle kontrolowany ruch. Jednocześnie samo wymówienie tego słowa wymaga ściśle kontrolowanego ruchu języka i warg. Wysoki dźwięk wymaga zmniejszenia wolnej przestrzeni w ustach przez uniesienie języka do góry, po czym dźwięk ten zamyka się delikatnym ruchem19. Warto przekonać się o tym, wymawiając słowa frob, twiddle i tweak z samego rana, tuż po przebudzeniu, gdy jesteśmy jeszcze zaspani. Kontrola mięśni nie jest wówczas tak doskonała, jak zwykle, więc z łatwością wymówimy słowo frob, natomiast wymówienie słowa tweak okaże się dość trudne. Zamiast brzmieć [twi:k], będzie brzmiało mniej więcej jak [twe:]. Jeśli Czytelnik nie chce czekać z tym doświadczeniem aż do rana, może wyobrazić sobie, że właśnie się obudził, i przeciągając się, wymówić te słowa, prawie ziewając. Różnica jest ewidentna: gdy ziewamy, możemy wymówić frob, ale nie tweak20 . Związki pomiędzy kontrolowaniem ruchów (czy to podczas wykonywania nazywanej przez dane słowo czynności, czy też w trakcie wymawiania tego słowa) a samym słowem, stanowią pewne wskazówki dotyczące tego, czym była mowa, zanim rzeczywiście stała się mową. Protojęzyk, czyli system komunikacji funkcjonujący przed pojawieniem się składni czy gramatyki, prawdopodobnie przy nadawaniu znaczeń, opierał się na takich Metaforach21. Dla człowieka współczesnego, język wiąże się z wyrafinowanym systemem uczenia się, podczas którego jako dzieci poznajemy znaczenie poszczególnych słów. Wciąż istnieją jednak relikty przypominające o dawnych czasach: wyrazy dźwiękonaśladowcze to słowa, które brzmią tak samo, jak to, co oznaczają, na przykład muuu czy bum. Słowa takie jak frob i tweak funkcjonują w podobny sposób, opierając się na wielkości i krągłości – czy to kształtów w obszarach mózgu odpowiadających za widzenie, czy też czynności majstrowania pokrętłami w obszarach mózgu odpowiadających za ruch. W życiu codziennym Ze względu na związek między dźwiękiem a słowem, oparty na składających się na niego fonemach i odczuciach, jakie wzbudza (które stanowią pewnego rodzaju wspólne subiektywne doświadczenie odbiorców), symbolika dźwięków jest jedną z technik wykorzystywanych w wymyślaniu nazw produktów (brandingu – budowaniu świadomości marki). Specjaliści od nazw produktów biorą pod uwagę aspekt „malumowości” lub „taketyczności” znaczenia słowa, a nie tylko jego znaczenie słownikowe, i wymyślają na żądanie nazwy dla produktów i firm, oczywiście za odpowiednim wynagrodzeniem. Jednym z czynników, który miał wpływ na nazwanie bezprzewodowych urządzeń do obsługi poczty elektronicznej wyrazemBlackBerry, był fakt, że zaczyna się on od dźwięku b-. A ten podobno kojarzy się z niezawodnością22.

Sposób 51. Jak podczas czytania nie tracić danych przez zapchany bufor pamięci

Zrozumienie zdania utrudnia nie jego długość, lecz oczekiwanie, aż dana fraza zostanie zakończona. Gdy czytamy jakieś zdanie, rozumiemy je nie słowo po słowie, ale fraza za frazą. Frazy, to grupy wyrazów, które wiążą się ze sobą zgodnie z regułami gramatycznymi. Fraza nominalna zawiera rzeczowniki i przymiotniki, natomiast fraza werbalna, na przykład czasownik i rzeczownik. Frazy, to podstawowe elementy języka, a my w naturalny sposób dzielimy zdania na frazy, tak jak widziane obrazy dzielimy na obiekty. Oznacza to, że nie musimy rozpatrywać odrębnie każdego słowa, które słyszymy. Traktujemy słowa jako części fraz i dysponujemy pewnym buforem – bardzo krótką pamięcią, która magazynuje docierające słowa, aż do momentu, w którym mogą być przypisane do danej frazy. Zdania stają się trudne nie dlatego, że są długie, ale dlatego, że przekraczają możliwości bufora potrzebne do dokonania ich analizy składniowej, a to zależy od długości pojedynczych fraz. W praktyce Przeczytajmy poniższe zdanie: • Gdy Tomek jadł jabłko było w koszyku. Czy musiałeś przeczytać to zdanie kilka razy, żeby je zrozumieć? Zdanie to jest gramatycznie poprawne, ale celowo pominięto w nim przecinek, by podkreślić trudności w jego rozumieniu. Gdy czytamy zdanie o Tomku, dodajemy wyrazy do wewnętrznego bufora, aby stworzyć z nich frazę. Kiedy czytamy je po raz pierwszy, wydaje nam się, że cała pierwsza połowa zdania okaże się pierwszą frazą („Gdy Tomek jadł jabłko”) – ale zostajemy sprowadzeni na manowce. Zdanie jest skonstruowane tak, by nas zmylić. Po pierwszej frazie dodajemy w głowie przecinek, po czym czytamy drugą część zdania i przekonujemy się, że nie ma ono sensu. Musimy więc zastanowić się, gdzie przypada granica między frazami (aha, przecinek jest po „jadł”, a nie po „jabłko”!), i jeszcze raz przeczytać to zdanie, by dokonać ponownej analizy składniowej. Żeby podzielić zdanie na inne frazy, musimy przeczytać je jeszcze raz; nie potrafimy bowiem „żonglować” słowami w głowie. Przeczytajmy teraz trzy zdania, które mają takie samo znaczenie, ale różnią się stopniem skomplikowania:

  • Kot złapał pająka który złapał muchę którą połknęła starsza pani.
  • Mucha połknięta przez starszą panią została złapana przez pająka którego złapał kot.
  • Mucha pająka kot złapana złapał została połknięta przez starszą panią.

Pierwsze dwa zdania są dość trudne, ale można je zrozumieć. Natomiast ostatnie zdanie powstało przez poprzestawianie wyrazów i nie ma dla nas żadnego sensu. (Przy założeniu, że połykanie kotów przez starszą panią ma sens, co jest kompletnym absurdem, ale okazuje się, że ta pani połknęła również kozę, nie wspominając o koniu, więc pozostawmy sprawę kota bez komentarza23. Jak to działa Charakterystyczną cechą języków, jakimi się posługujemy, jest możliwość przestawiania ich elementów. Oznacza to, że zdanie nie powstaje tak, jak szalik na drutach, w przypadku którego dodanie dodatkowego szczegółu oznacza dodanie go na samym końcu. Zdania przypominają raczej klocki lego. Frazy można dzielić i łączyć z innymi zdaniami albo dodawać w środku kolejne elementy. Spójrzmy na te mało fantazyjne przykłady:

  • To zdanie jest przykładem.
  • To nudne zdanie jest prostym przykładem.
  • To długie, nudne zdanie jest prostym przykładem struktury zdania.

Aby zrozumieć zdanie, dzielimy je na frazy. Jednym z rodzajów fraz jest fraza nominalna, zawierająca podmiot z danego zdania. W zdaniu: „To zdanie jest przykładem” fraza nominalna brzmi: „to zdanie”. W drugim zdaniu fraza nominalna brzmi: „to nudne zdanie”. Gdy fraza nominalna jest już złożona, może zostać zaprezentowana i zrozumiana przez resztę mózgu. Jednak w trakcie czytania zdania wyrazy pozostają w roboczej pamięci werbalnej – czyli w pewnego rodzaju krótkotrwałym buforze – zanim dana fraza nie zostanie zakończona.


Można wskazać na pewną analogię z przetwarzaniem wzrokowym. Łatwiej jest rozumieć świat pokawałkowany – stąd biorą się zasady konfigurowania [Sposób 75.]. W przypadku języka, który dociera do nas w sposób sekwencyjny, a nie równoległy, jak obraz widzianego świata, zanim dana fraza się nie skończy, nie mamy pewności co do tych kawałków, musimy ją więc niepokawałkowaną przechowywać w roboczej pamięci, zanim nie dowiemy się, gdzie ta fraza się kończy – M.W.


Frazy werbalne funkcjonują w ten sam sposób. Gdy nasz mózg widzi słowo „jest”, wie, że zaczyna się fraza werbalna, i przechowuje następne wyrazy w pamięci, aż skończy się cała fraza (w pierwszym zdaniu z powyższej listy wyrazem „przykładem”). Podobnie jest w przypadku ostatniej części ostatniego zdania, która brzmi: „struktury zdania” i stanowi frazę przyimkową. Ona również jest więc frazą samodzielną. W ten sposób podmiot trzeciego zdania nie jest odbierany jako trzy razy bardziej skomplikowany niż podmiot pierwszego zdania (gdyż składa się z trzech słów: „nudne, długie zdanie” zamiast z jednego: „zdanie”), lecz rozumiany jest jako ten sam obiekt, ale z dodanymi modyfikatorami. Łatwiej będzie to zobaczyć, jeśli posłużymy się rysunkiem 4.4, który przedstawia trzy schematy. Zdania mają rozgałęzioną strukturę, a im bardziej skomplikowane jest zdanie, tym więcej gałęzi ma odpowiadające mu drzewko. Aby można było zrozumieć całą frazę, jej drzewko musi dołączyć do reszty. Wszystkie te zdania łatwo zrozumieć, ponieważ składają się z bardzo małych drzewek, które szybko się uzupełnia.

Rysunek 4.4. Przykładowe zdania rozgałęziają się na składające się na nie frazy. Dzieląc zdania na kawałki, nie posługujemy się wyłącznie regułami gramatycznymi. Trudność w zrozumieniu zdania o Tomku wynikała między innymi z tego, że zobaczywszy wyrazy „Tomek jadł”, spodziewaliśmy się, że dowiemy się, co jadł. Gdy przeczytaliśmy potem „jabłko”, było to dokładnie to, czego się spodziewaliśmy, więc z radością założyliśmy, że jest to element tej samej frazy. W celu ustalenia granic fraz sprawdzamy indywidualne znaczenie słów oraz prawdopodobieństwo kolejności wyrazów, nieustannie rewidujemy znaczenie zdania itd., cały czas zapełniając bufor. Jednak przechowywanie wyrazów w pamięci, zanim frazy zostaną zakończone, samo w sobie stanowi problem, nawet pomijając przypadki zdań, których konstrukcja wprowadza nas w błąd. Wróćmy więc do starszej pani. Dwa pierwsze zdania na temat jej upodobań kulinarnych wymagają przechowywania w buforze tylko jednej frazy za każdym razem. Zastanówmy się, jakie frazy są niekompletne, biorąc pod uwagę każde słowo. Nie ma żadnych niejasności odnośnie tego, do czego odnoszą się wyrazy „złapany” lub „złapana” czy „przez” zawsze jest to kolejne słowo w zdaniu. Na przykład nasz mózg przeczytał: „Kot” (w pierwszym zdaniu) i natychmiast spytał: „Co zrobił?”. Odpowiedź zawiera następna fraza: „Złapał pająka”. „OK” . mówi nasz mózg i wyrzuca tę frazę z pamięci roboczej, by zająć się rozpracowywaniem reszty całego zdania. Natomiast ostatnie zdanie – o starszej pani – jest zupełnie inne. Zanim mózg dotrze do wyrazu „kot”, zada sobie trzy pytania, na które nie znajdzie odpowiedzi. Co z tym kotem? Co z tym pająkiem? Co z tą muchą? Odpowiedzi na te pytania następują jedna za drugą: mucha, którą połknęła starsza pani; pająk, który złapał muchę itd. Jednak ponieważ wszystkie te pytania są tego samego rodzaju i rodzaj frazy jest ten sam, zderzają się one w naszej roboczej pamięci werbalnej, a przez to docieramy do granic możliwości rozumienia zdań. W życiu codziennym Dobre przemowy charakteryzują się tym, że ich zrozumienie wymaga zastosowania minimalnej ilości pamięci roboczej, czyli bufora. Dla tekstów pisanych nie jest to tak istotne, ponieważ możemy wracać wzrokiem i ponownie czytać wybrane zdania; natomiast w przypadku słowa mówionego, mamy tylko jedną szansę, by coś usłyszeć i zrozumieć, lepiej więc jeśli udaje się to zrobić od razu. Dlatego właśnie spisane przemowy zawsze wydają się bardzo proste (przynajmniej w konstrukcji). Nie oznacza to, że w przypadku tekstów pisanych możemy zignorować wielkość bufora. W celu ułatwienia zrozumienia tego, co mówimy lub co piszemy, warto rozważyć kolejność podawania informacji w zdaniu. Trzeba sprawdzić, czy można pogrupować powiązane ze sobą elementy po to, by zmniejszyło się zapotrzebowanie na koncentrację ze strony czytelnika. Wówczas więcej osób dotrze do końca Twojego tekstu, mając siły na zastanowienie się nad tym, co wyraziłeś, lub zrobienie tego, o co prosiłeś.

Sposób 52. Przetwarzanie z grubsza, za pomocą rozwiązań równoległych

Przetwarzanie w sieciach neuronowych przebiega równolegle, a nie szeregowo. Oznacza to, że podczas przetwarzania rozmaitych aspektów, te przetworzone wcześniej, można szybko wykorzystać do wyjaśnienia wątpliwości w przetwarzaniu innych. Sieci neuronowe, to w przeważającej części komputery równoległe. Natomiast używane przez nas komputery osobiste, to komputery szeregowe. Oczywiście, mogą emulować wieloprocesorowość, ale tylko dlatego, że ich procesory są naprawdę szybkie. Jednak bez względu na to, jak szybko pracują, mogą robić tylko jedną rzecz naraz. Przetwarzanie neuronowe jest w porównaniu z komputerami po prostu przedpotopowe. Neurony w układzie wzrokowym mogą wysyłać sygnał najwyżej co 5 tysięcznych sekundy, a między nimi musi nastąpić bezwzględna przerwa trwająca minimum 2 tysięczne sekundy. Oznacza to, że w przypadku działań zajmujących od 0,5 do 1 sekundy – jak zauważenie i złapanie piłki nadlatującej w naszą stronę (czy wielu innych czynności, jakie badają psychologowie zajmujący się psychologią kognitywną ) – mózg może wykonać w tym czasie maksymalnie 100 następujących po sobie obliczeń. Jest to tak zwana reguła stu kroków24. Nasz mózg nie działa jak pecet z procesorem 0,0001 MHz, a to dlatego, że przeciętny neuron jest połączony z olbrzymią liczbą innych neuronów – od 1000 do 10 00025. Informacja zostaje gdzieś skierowana, potem jest przekierowywana pomiędzy licznymi połączonymi ze sobą modułami neuronów, a wszystko to dzieje się równolegle. Rekompensuje to powolność każdego neuronu, a jednocześnie sprawia, że rzeczą naturalną i konieczną staje się wykonywanie wszystkich aspektów zadań obliczeniowych jednocześnie, a nie krok po kroku. Każdą decyzję, jaką podejmujemy, i każde postrzeżenie, jakiego doświadczamy (a to, co mózg postanowi nam dostarczyć jako spójne doświadczenie, również jest rodzajem decyzji), składa się z efektów pracy wielu działających jednocześnie modułów przetwarzania. Nie ma czasu na to, by pracowały sekwencyjnie, nie mogą czekać na wynik pracy innych modułów, więc wszystkim im muszą wystarczyć surowe dane oraz wszystko to, co będą mogły wykorzystać w danym momencie. W praktyce Dobrym przykładem jednoczesnego przetwarzania jest rozumienie mowy. W trakcie słuchania lub czytania, by zrozumieć treść przekazu, wykorzystujemy kontekst, możliwe znaczenia poszczególnych słów, składnię zdań, a nawet to, jakie są dźwięki czy litery każdego słowa. Rozważmy następujące zdanie: „Na śniadanie wypiłem kawę z *******”. Nie musimy znać ostatniego słowa, by zrozumieć to zdanie i bardzo łatwo jest nam odgadnąć ten ostatni wyraz. Czy zrozumiemy tytuł wiadomości w poczcie elektronicznej, jeśli będzie brzmiał: „Kup V!agrę”? Oczywiście, że tak. Nie potrzebujemy prawidłowej litery w drugim wyrazie, by ją zrozumieć (o ile oczywiście „przedrze się” przez filtr antyspamowy i w ogóle do nas dotrze). Jak to działa Rozmaite czynniki – różnego rodzaju wskazówki, jakie wykorzystujemy podczas czytania – uzupełniają się wzajemnie, uzupełniają również brakujące informacje oraz korygują informacje błędne. Między innymi dlatego tak trudno zauważyć literówki w tekście (zwłaszcza napisanym przez siebie, gdy nasza znajomość tego tekstu w sposób automatyczny koryguje literówki, zanim je spostrzeżemy). Umożliwia nam to również prowadzenie rozmowy w głośnym barze. Równoległe przetwarzanie różnych aspektów danych wejściowych eliminuje błędy i nieścisłości oraz pozwala, aby informacje płynące z różnych procesów w sposób interaktywny się wzajemnie ujednoznaczniały. Być może Czytelnik spotkał się z wiadomością e-mailową (http://www.mrc-cbu.cam.ac.uk/ personal/matt.davis/Cmabridge) informującą, że można pisać zdania, w których środkowe litery wyrazów są poprzestawiane, a i tak wszyscy z łatwością je zrozumieją. Jak widać, nie ma zancenzia w jkaeij keolnjości wstypęjuą leirty w wrayize, wżane jset tlkyo to, by peirzswa i otsantia letria błyy na siowm msejciu. Rsetzę mżona sboie dwonoile wzmeisyać, a i tak cyatnzie nie srpwai żdanej tndrośuci. To oczywiście nieprawda. Zdania składające się z wyrazów z poprzestawianymi literami rozumiemy prawie tak dobrze, jak te z poprawnymi wyrazami. Możemy odgadnąć znaczenie zdania w danym kontekście ze względu na nadmiar otrzymanej informacji. Wiemy, że zdanie musi mieć sens, a to ogranicza zakres możliwych słów, z jakich może być ono zbudowane. To samo dotyczy składni: zasady gramatyczne oznaczają, że tylko niektóre słowa mogą znaleźć się w danym miejscu zdania. Dysponujemy również informacją o długości wyrazów, a także o tym, z jakich liter się składają. Brakuje tylko informacji o kolejności liter w środku wyrazów. A skompensowanie tego braku to pestka dla naszej zdolności językowej, czyli procesu, jaki przebiega zasadniczo w sposób równoległy, spełniając liczne ograniczenia. Umiejętność czytania zdań zbudowanych z wyrazów o poprzestawianych literach być może wydaje nam się zaskakująca, dlatego że komputer z takim zadaniem nie umiałby sobie zupełnie poradzić. Według komputerów każde słowo musi dokładnie odpowiadać wzorcowi tego słowa. Jeśli nie ma idealnego dopasowania, komputer go nie rozumie. Rzeczywiście, wyszukiwarka Google sugeruje prawidłową kolejność liter w wyrazach, ale jeśli wpiszemy jestem zedezorientowany, to koniec, niczego nie znajdzie.Natomiast osoba, z którą rozmawiamy za pomocą internetowego komunikatora, z łatwością odgadnie prawidłową kolejność liter 26. (Porównanie reakcji Google i człowieka przedstawia rysunek 4.5). Taki sam proces ma miejsce podczas widzenia. Różne obszary kory wzrokowej odpowiadają za przetwarzanie rozmaitych elementów. Niektóre przekazują informację o kolorze, inne o ruchu, głębi czy kierunku. Powiązania między nimi oznaczają, że gdy spojrzymy na jakąś scenę, wszystkie te obszary zaczynają pracować i wspólnym wysiłkiem ustalają, co najlepiej odpowiada napływającej informacji. Gdy to już wiadomo, nasza percepcja chwyta się tego, a my uświadamiamy sobie, na co patrzymy. To równoległe i interaktywne działanie sprawia, że określanie pojedynczego obszaru mózgu jako „odpowiadającego za funkcję X” wprowadza w błąd. Żaden obszar mózgu nie działa bez jednoczesnego działania wszystkich innych jego obszarów, a poza całym tym otoczeniem, pojedyncze obszary mózgu w ogóle nie mogłyby funkcjonować.


Przypisy ::

  1. Stąd na początku kinematografii, gdy w kinach były wyświetlane nieme filmy, zatrudniona była osoba przygrywająca na pianinie. Przy pomocy dźwięków, nie tylko grający budował atmosferę, ale i nie pozwalał oglądającym… zasnąć – przyp. red.
  2. Pomysł z klaskaniem przed scianą zawdzięczany Geoffowi Martinowi i jego stronie internetowej :: http://www.tonmeister.ca/main/textbook/
  3. Gatunek sowy – przyp. red.
  4. D. McAlpine, B. Grothe, „Sound localization and delay lines – Do Mammals fit the model?”, Trends in Neurosciences, 26(7), 2003, s. 347 – 350.
  5. „Siren Sounds: Do They Actually Contribute to Traffic Accidents?” (http://www.soundalert.com/pdfs/impact.pdf).
  6. R. Montgomerie, P.J. Weatherhead, „How robins find worms”, Animal Behaviour, 54, 1997, s. 137 – 143.
  7. Istnieją również inne mechanizmy wykorzystujące przetwarzanie neuronalne, które także służą rekonstruowaniu podstawowej składowej z harmonicznych. Opisują je dwie główne teorie. Jedna z nich opiera się na odkrywaniu wzorów w poziomie aktywności komórek receptorowych Wzdłuż ślimaka, a druga – na wykorzystaniu struktury czasowej reakcji komórek.
  8. D. McAlpine, „Neural sensitivity in the inferior colliculus: Evidence for the role of cochlear distortions”, Journal of Neurophysiology, 92(3), 2004, s. 1295 – 1311.
  9. Złudzenie brakującej podstawowej składowej występuje również w percepcji ruchu. Zobacz: http://www.umaine.edu/visualperception/summer.
  10. Zbiór niesamowitych złudzeń słuchowych Yoshitaki Nakajimy pt. „Demonstrations of Auditory Illusions and Tricks”, który obejmuje przykłady i graficzne objaśnienia, znajduje się na stronie internetowej: http://www.kyushu-id.ac.jp/~ynhome/ENG/Demo/illusions2nd.html. Jedno z najlepszych złudzeń to „Melody of Silences” (http://133.5.113.80/~ynhome/ENG/Demo/2nd/03.html).
  11. Zaś biorąc pod uwagę stan krajowych pociągów, eksperyment prawie nie do wykonania w u nas – przyp. red.
  12. To działa! – przyp. red.
  13. H. Merckelbach, V. van de Ven, „Another White Christmas: fantasy proneness and reports of »hallucinatory experiences« in undergraduate students”, Journal of Behaviour Therapy and Experimental Psychiatry, 32(3), 2001, s. 137 – 144.
  14. P. Brugger, M. Regard, T. Landis, N. Cook, D. Krebs, J. Niederberger, „Meaningful patterns in visual noise: Effects of lateral stimulation and the observer”s belief in ESP”, Psychopathology, 26(5 – 6), 1993, s. 261 – 265.
  15. S. Pinker, The Language Instinct: The New Science of Language and Mind, Penguin Books Ltd., London 1994.
  16. Internetowy słownik żargonu hakerów „Jargon File”, wersja 4.1.0, lipiec 2004 (http://www.catb.org/~esr/jargon/index.html).
  17. Szerzej ten eksperyment został opisany w pracy W. Köhlera: „The mentality of apes”; Routlage and kegan paul, Londyn 1925 – przyp red.
  18. Na marginesie, interesującym zabiegiem byłaby mozliwość odczytywania tego typu informacji przez wyszukiwarki internetowe. W wysokim stopniu (choć może czasem nie zdajemy sobie z tego sprawy) zwiększyłaby to skuteczność w odnajdywaniu tej informacji, o którą naprawdę nam chodzi – przyp. red.
  19. Kiedys zastanawiałem się nad odbiorem okresleń z języka polskiego: „naga kobieta” i „goła baba”, brzmią inaczej coć określaja to samo. Pytając znajomych okazało się,że wszyscy stwierdzili, że „naga kobieta” jest subtelna, a „goła baba” pospolita, a czasem wulgarna. Łatwo to co usłyszeli, potrafili zmienić w to, co widzieli – przyp. red.
  20. Zjawisko to zwane jest symbolizmem fonetycznym. Niektórzy ludzie postrzegają kolory podczas czytania słów lub liczb, co nazywamy synestezją. Ramachandran i Hubbard uważają, że to właśnie synestezja mogła zapoczątkować powstanie języka. Zobacz: V.S. Ramachandran, E.M. Hubbard, „Synaesthesia – a window into perception, thought and language”, Journalof Consciousness Studies, 8(12), 2001, s. 3 – 34. Artykuł ten jest również dostępny w Interneciena stronie: http://psy.ucsd.edu/chip/pdf/Synaesthesia%20-%20JCS.pdf.
  21. Sharon Begley, „Blackberry and Sound Symbolism”. Przedruk tego artykułu z Wall Street Journal z 26 sierpnia 2002 r. znajduje się na stronie internetowej:http://www.stanford.edu/class/linguist34/ Unit_08/blackberry.htm.
  22. Odniesienie do tekstu popularnej angielskiej, dziecięcej piosenki „I know an old lady who swallowed a fly” opowiadającej o starszej pani, która połyka kolejno różne zwierzęta, by złapały połkniętą najpierw muchę – przyp. red.
  23. J. A. Feldman, D. H. Ballard, „Connections models and their properties”, Cognitive Science 6, 1982; s. 205-254 (http://cognitrn.psych.indiana.edu/rgoldsto/cogsci/Feldman.pdf).
  24. Szacunkowa ocena możliwości połączeń neuronu z innymi, w literaturze waha się pomiędzy kilkaset, a nawet 2000.000. jednak najczęściej przyjmowana jest faktycznie od 1000 do 10.000 – przyp. red.

  25. Ostatnie zapytania:

    • do czego odnosi się próg działania wibracji miejscowej
    • czy slyszymy dźwięk widełek drugim uchem gdy pierwszym nie odbieramy
    • jak slyszymy dzwieki stereo w sluchawkach
    • Co się dzieje jak wydobedzie się płyn z ucha srodkowego -strzemiaczko
    • rozumienie slyszenia
    • skąd dobiega dzwiek doswiadczenie w grupie
    • slyszenie glosuw i drgania
    • slyszenie nieistniejacych glosow przyczyny
    • sprawdz czy slyszysz 12hz
    • słyszę głosy w głowie