Disse 3 Science Metrics kan kategorisere Radiohead bedre enn Spotify s sjangere

Thom Yorke - Bloom (Live from Electric Lady Studios)

Thom Yorke - Bloom (Live from Electric Lady Studios)
Anonim

Musikk kritikere regelmessig scour Thesaurus.com for de beste adjektiver å kaste inn i deres perfekt beskrivende melodiøse forkjøp på de nyeste verk fra Drake, Radiohead, eller hvem som helst. Og lyttere av alle turer har siden begynnelsen av selve musikken vært skyldig til latiske pigeonholing artister i mange sosialt konstruerte sjangre. Men alt dette kan være (og burde være) kastet ut av vinduet nå, fordi ny forskning tyder på at for å perfekt matche musikk til en lytterens personlighet, er alt du trenger, disse tre vitenskapelige målene.

I en studie med tittelen "Sangen er deg: Preferanser for musikalske attributt dimensjoner reflekterer personlighet", publisert i Sosialpsykologisk og personlighetsvitenskap, forskere fra McGill, Cambridge og Stanford forklarer at de psykologiske effektene av musikk alle passer inn i kategoriene arousal, valence og depth.

"Genrer er i hovedsak definert av sosiale elementer og industri, men det vi ønsker å bevege seg mot er de faktiske attributter i musikk som folk foretrekker og har en følelsesmessig reaksjon på," David Greenberg, en hovedforfatter av studien og musikkpsykolog ved Cambridge University og City University of New York, forteller Omvendt.

I stedet for å klassifisere musikk etter sjanger, måler studiet: oppmuntring, energi og intensitet i musikken; valens, den følelsesmessige tonen fra lykkelig til trist; og dybde, den intellektuelle raffinement av musikken. Spesifikke sanger og artister kan falle et sted på spekteret målt av de tre kvaliteter, eller en sang kan være så overveldende beat-driven eller følelsesmessig arrdannelse at den passer pent inn i en kategori.

Dette antyder at en langsom, introspektiv gospel sang fra Chance Rappers kommende album kunne ha samme dybde som et spor fra Radiohead s En Moon Shaped Pool. Så et system for kategorisering basert på Greenbergs forskning ville overraskende, men rettferdig, plassere rap og rock-arbeider i samme bin.

Greenberg sier at kategorisering av musikk ved hjelp av disse tre kategoriene kan få store konsekvenser på tvers av industri og forskning. Musikk terapeuter kan øke hastigheten på gjenopprettingstider for pasienter, og streaming musikktjenester som Spotify, Pandora, YouTube og Google Play Musikk kan alle dra nytte av å analysere disse tre kategoriene i sine egne prediktive musikkfunnsalgoritmer.

Teoretisk kan streamingtjenester spørre brukerne om å ta en personlighetstest og få bedre, mer følelsesmessig slående musikk som leveres. Tjenester som Apple Music og Google Play beder allerede nye brukere om å velge en serie artister for bedre å formulere en algoritme for musikksmak, så hvorfor ikke ta det et skritt videre?

Greenberg tilbyr allerede en omfattende offentlig online test som vil identifisere en persons musikk personlighet. Den er basert på en vel ansett psykologisk modell kalt Five Factor Model, som måler åpenhet for å oppleve, samvittighetsfulle, ekstraversjon, enighet og neurotikk.

"Folk som hadde høy åpenhet til å oppleve, foretrukket … dybden i musikk, så de så på kvaliteter som var mer sofistikerte og komplekse," sier Greenberg. "På den annen side foretok folk som var høy på nevrotisme, mer intensitet i musikk."

Forskningen fant også at musikk som er mer personlig for lytteren, fremkaller en mer emosjonell respons. Enhver musikklytter kunne nok ha opplevd den samme teorien selv, men det er bra å få forskningen til å sikkerhetskopiere. Det er akkurat som Joni Mitchell sa i et 2013-intervju med CBC: "Trikset er hvis du hører på den musikken og du ser meg, du får ikke noe ut av det. Hvis du hører på den musikken og ser deg selv, vil det nok få deg til å gråte, og du vil lære noe om deg selv og nå får du noe ut av det."