"Humans possess a remarkable ability to attend to a single speaker’s voice in a multi-talker background1,2,3. How the auditory system manages to extract intelligible speech under such acoustically complex and adverse listening conditions is not known, and, indeed, it is not clear how attended speech is internally represented4,5. Here, using multi-electrode surface recordings from the cortex of subjects engaged in a listening task with two simultaneous speakers, we demonstrate that population responses in non-primary human auditory cortex encode critical features of attended speech: speech spectrograms reconstructed based on cortical responses to the mixture of speakers reveal the salient spectral and temporal features of the attended speaker, as if subjects were listening to that speaker alone. A simple classifier trained solely on examples of single speakers can decode both attended words and speaker identity. We find that task performance is well predicted by a rapid increase in attention-modulated neural selectivity across both single-electrode and population-level cortical responses. These findings demonstrate that the cortical representation of speech does not merely reflect the external acoustic environment, but instead gives rise to the perceptual aspects relevant for the listener’s intended goal."   
Od tego czasu pojawiło się wiele publikacji dotyczących nieiwazyjnych badań EEG (rejestracje z powierzchni skóry na czaszce), w których zaprezentowano wyniki badań nad efektem "cocktail party". Potwierdzono w nich jednoznacznie, że nasza zdolność do selektywnej uwagi słuchowej związana jest ściśle z aktywnością struktur mózgowych, które promują śledzenie sygnału na którym chcemy się skupić, tłumiąc jednocześnie synchronizację korową z sygnałem ignorowanym [2, 3, 4, 9, 12, 14]. Można zauważyć również zgodność naukowców co do chęci i możliwości skonwertowania nabytej wiedzy na praktyczne rozwiązania. Badania nad zjawiskiem synchronizacji korowej wydają się być wysoce istotne z punktu widzenia przyszłości konkretnych urządzeń medycznych. Stworzenie dokładnych algorytmów oraz metod identyfikacji celowanego sygnału mowy (takich jak AAD), może w znacznym stopniu pomóc osobom z uszkodzeniami słuchu. Nowa generacja aparatów słuchowych opartych na informacji zwrotnej z kory mózgowej rejestrowanej przy pomocy EEG,  znacznie ułatwiłaby takim osobom funkcjonowanie w codziennej scenerii akustycznej typu "cocktail party". Należy jednak zwrócić uwagę, że poza zakłóceniami addytywnymi, sceneria ta cechuje się często współwystępowaniem zakłóceń w postaci pogłosu. Wcześniejsze badania, głównie nad zrozumiałością mowy - pokazały, że    
In real-world reverberant rooms, normal-hearing  listeners can maintain robust speech recognition even when the  acoustic envelope of a signal has been substantially distorted (Darwin  and Hukin, 2000; Ruggles and Shinn-Cunningham, 2010). 
W roku 2014 - Mesgarani i wsp. [32] - przeprowadzając badania na zwierzętach....
To understand how neural circuits represent degraded auditory stimuli with additive and reverberant distortions, we compared single-neuron responses in ferret primary auditory cortex to speech and vocalizations in four conditions: clean, additive white and pink (1/f) noise, and reverberation.
Wykazano w nich, że ....