Goffin i Cova w swoim artykule (2019!) zmierzyli się z nurtującym wszystkich pytaniem estetycznego nihilizmu. Dotychczasowe badania empiryczne wskazują, że ludzie nie uważają sądów estetycznych za ,,poprawne’’ lub ,,niepoprawne’‘, ,,dobre’’ lub ,,złe’‘. Nasze oceny dzieł sztuki nie odzwierciedlają żadnych ,,obiektywnych’’ wartości estetycznych w nich zawartych.
Istnieje jednak fenomen guilty pleasure polegający na tym, że ktoś czerpie przyjemność z dzieł sztuki (szeroko rozumianych!) i jednocześnie czuje się z tego powodu źle. Dlaczego? Jedna hipoteza (estetyczna) głosi, że jest tak, ponieważ osoby te zdają sobie sprawę, że dziełom, z których czerpią przyjemność brakuje pewnych obiektywnych wartości estetycznych i dlatego ich zachowanie jest nieodpowiednie. Druga (nieestetyczna) głosi zaś, że chodzi nie o transgresję norm estetycznych ale osobistych ideałów, normy społeczne, brak wartości intelektualnej dzieła czy odstawanie od poglądów innych ludzi. Na przykład przyznanie się, że słucha się Bonusa RPK przed innymi może doprowadzić do wysnucia wielu niekorzystnych wniosków na nasz temat.
Badacze przeprowadzili serię badań, w których próbowali rozstrzygnąć tę kwestię. W jednym z nich chcieli zobaczyć, które czynniki najlepiej wyjaśniają “czucie się źle” związane z partycypacją w guilty pleasures.
Badani otrzymali od Goffina i Cova’y definicję guilty pleasure oraz poprosili badanych o przypomnienie sobie i opisanie jakiegoś swojego guilty pleaser oraz opisanie własnymi słowami, dlaczego czuli się z tym źle. Następnie badani na skali 1 (TOTALLY DISAGREE) do 7 (TOTALLY AGREE) ocenili 18 stwierdzeń dotyczących swojego obiektu guilty pleasure. Następujące dwa stwierdzenia miały charakter kontrolny i miały potwierdzić, czy faktycznie mamy do czynienia z tym zjawiskiem:
(C1) “I really enjoy this work.”
(C2) “I feel bad about enjoying this work.”
Część pytań dotyczyła różnych aspektów tego doświadczenia. Niektóre z nich dotyczyły jego normatywnego wymiaru jak na przykład:
(N2) “I feel like my enjoyment of this work is wrong and musguided.”
Inne dotyczyły identyfikacji z tym negatywnym doświadczeniem:
(I1) “My enjoyment is in conflict with my own opinions and thoughts about the work.”
Pozostałe pytania miały na celu przetestować różne wyjaśnienia zjawiska guilty pleasure. Wyjaśnienie estetyczne testowane było między innymi przez pytanie:
(Art2) “If I were to write an art review. I would say the object of my enjoyment is a poor work of art.”
Jedno z pytań testujące wyjaśnienie, zgodnie z którym guilty pleasure wynika z braku intersubiektywnej zgody:
(Int2) “My enjoyment of this work does not match other people’s experience.”
Wyjaśnienie, które guilty pleasure interpretuje jako zaprzeczenie swoim osobistym ideałom tesotwane było przez pytania, wśród których znalazło się:
(Personal1) “People I admire would probably not enjoy this kind of work.”
Jeśli chodzi o wyjaśnienie biorące pod uwagę normy społeczne, to jedno z pytań brzmiało:
(Social2) “I’m afraid of what people think of people who enjoy this kind of artwork.”
Ostatnim testowanym wyjaśnieniem było to, zgodnie z którym dziełom tym brakuje wartości intelektualnych (czyli niekoniecznie estetycznych):
(Intellectual1) “This work is not very complex or intellectual.”
Badacze udostępnili cały komplet danych, więc skorzystamy z okazji i spróbujemy własnoręcznie przeanalizować te dane. Na początek wczytamy je do R:
data = read.csv("Study3_Results_AfterExclusion.csv")
Regresje przeprowadzamy w R za pomocą funkcji lm. Funkcja ta zwraca obiekt, którego metoda print wyświetla wyraz wolny regresji, współczynnik kierunkowy oraz wywołanie funkcji. Jeżeli chcemy się dowiedzieć czegoś więcej, musimy obiekt ten przekazać funkcji summary.
Na początek sprawdźmy, jak wygląda relacja między odpowiedziami na pytania testujące wyjaśnienie estetyczne oraz poziomem zgody na stwierdzenie o tym, że badani czuli się źle ze swoim guilty pleasure.
data$ART = apply(data[,c("ART1", "ART2", "ART3")], 1, mean)
data$IDEAL = apply(data[,c("IDEAL1", "IDEAL2")], 1, mean)
data$PEOPLE = apply(data[,c("PEOPLE1", "PEOPLE2")], 1, mean)
data$SOCIAL = apply(data[,c("SOCIAL1", "SOCIAL2")], 1, mean)
data$INTELLECTUAL = apply(data[,c("INTELLECTUAL1", "INTELLECTUAL2")], 1, mean)
lm(data$FEELBAD ~ data$ART)
##
## Call:
## lm(formula = data$FEELBAD ~ data$ART)
##
## Coefficients:
## (Intercept) data$ART
## 3.3405 0.2533
Wywołanie funkcji summary na obiekcie zwracanym przez lm
# Funkcja `summary` pozwala nam się dowiedzieć więcej o modelu zwróconym przez funkcję `lm`,
# w szczególności zaś poznać różne jego parametry
summary(lm(data$FEELBAD ~ data$ART))
##
## Call:
## lm(formula = data$FEELBAD ~ data$ART)
##
## Residuals:
## Min 1Q Median 3Q Max
## -3.1139 -0.9450 0.1395 0.9706 2.6462
##
## Coefficients:
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) 3.34047 0.36806 9.076 6.28e-15 ***
## data$ART 0.25334 0.07988 3.171 0.00198 **
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 1.445 on 107 degrees of freedom
## Multiple R-squared: 0.08592, Adjusted R-squared: 0.07738
## F-statistic: 10.06 on 1 and 107 DF, p-value: 0.001979
Moglibyśmy ręcznie wydobyć wartości niezbędne do dodania linii regresji, ale możemy skorzystać z faktu, że nasz model możemy bezpośrednio przezkazać funkcji abline. Należy jednak pamiętać o tym, żeby tworząc wykres punktowy używać składni formuły (z ~). Na chwile obecną należy pamiętać, że formuły wyglądają mniej więcej tak: Y~X.
# Ustawiamy parametry graficzne R tak, aby narysować trójpanelowy wykres
par(mfrow = c(1,3))
# Tworzymy pierwszy wykres za pomocą składni formuły
plot(data$FEELBAD ~ data$ART)
# Przypisujemy model do zmiennej `model`
model = lm(data$FEELBAD ~ data$ART)
# Model można przekazać jako argument dla funkcji `abline` i ona będzie wiedziała co i gdzie narysować
abline(model)
# Pozostałę dwa przypadki analogicznie
plot(data$FEELBAD ~ data$IDEAL)
abline(lm(data$FEELBAD ~ data$IDEAL))
plot(data$FEELBAD ~ data$SOCIAL)
abline(lm(data$FEELBAD ~ data$SOCIAL))
Równanie prostej dopasowywanej do danych w regresji liniowej ma postać:
\[\hat{Y} = bX + a\]
gdzie:
\(\hat{Y}\) - przewidywana wartość Y
\(b\) - współczynnik regresji (slope - współczynnik kierunkowy)
\(a\) - wyraz wolny (intercept)
\(X\) - wartość zmiennej predyktora
plot(FEELBAD ~ PEOPLE, data = data)
abline(lm(FEELBAD ~ PEOPLE, data = data))
summary(lm(FEELBAD ~ PEOPLE, data = data))
##
## Call:
## lm(formula = FEELBAD ~ PEOPLE, data = data)
##
## Residuals:
## Min 1Q Median 3Q Max
## -3.0682 -1.2822 -0.1752 0.7713 2.7713
##
## Coefficients:
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) 3.96128 0.43684 9.068 6.53e-15 ***
## PEOPLE 0.10697 0.09575 1.117 0.266
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 1.503 on 107 degrees of freedom
## Multiple R-squared: 0.01153, Adjusted R-squared: 0.002291
## F-statistic: 1.248 on 1 and 107 DF, p-value: 0.2664
lm.beta z pakietu QuantPsyc, ale równie dobrze możemy zrobić to sami mnożąc przez iloraz wariancjiBłąd standardowy estymacji - odchylenie standardowe reszt. Wielkość ta informuje o przeciętnej wielkości odchyleń empirycznych wartości zmiennej zależnej od wartości wyliczonych z modelu (teoretycznych). Parametr ten jest ważny w analizie regresji, gdyż stanowi miarę rozproszenia elementów populacji wokół linii regresji. Na jego podstawie możemy ocenić stopień “dopasowania” modelu do danych empirycznych.
Dokładność oszacowania regresji mozna ocenić za pomocą współczynnika \(\phi^2\). Punktem wyjścia jest wariancja Y. Możemy pokazać, że:
\[S^2(Y) = S^2(\hat{Y}) + S^2(U)\]
Równość ta (równość wariancyjna) głosi, że całkowity obszar zmienności zmiennej zaleznej jest sumą zmienności wyjaśnianej regresją i zmienności resztowej (niewyjaśnianej przez regresję).
Współczynnikiem zbieżności \(\phi^2\) lub indeterminacji nazywamy stosunek tej części zmienności badanego zjawiska, która nie jest wyjaśniana przez zmiany zmiennych objaśniających w funkcji regresji do całkowitej zmienności zmiennej objaśnianej.
\[\phi^2 = \frac{S^2(U)}{S^2(Y)}\]
Współczynnikiem determinacji \(R^2\) mierzy jaka część ogólnej zmienności zmiennej zależnej jest wyjasniana przez regresję liniową. Obliczamy go według wzoru:
\[R^2 = \frac{S^2(\hat{Y})}{S^2(Y)} = 1 - \phi^2\]
Interpretacja współczynnika \(R^2\)
\[R^{2}_{popr} = R^2 - \frac{1}{n-2}(1-R^2) \]
Założenia regresji
Narzędzia diagnostyczne:
Więcej o wykresach diagnostycznych można przeczytać tutaj w języku angielskim i w książkach też:
Kontunuując prace z danymi Covy i Giffina możemy spytać, czy istnieje zależność między odpowiedziami na pytania o normatywną wymiar doświadczenia guilty pleasure (“I feel like i should not enjoy this work” oraz “I feel like my ojoyment of this work is wrong and misguided”) a tym, jak źle czują się z tym badani.
data$NORM = apply(data[,c("SHOULDNOT", "MISGUIDED")], 1, mean)
Nastepnie dopasujmy model liniowy do naszych danych.
model = lm(FEELBAD ~ NORM, data= data)
summary(model)
##
## Call:
## lm(formula = FEELBAD ~ NORM, data = data)
##
## Residuals:
## Min 1Q Median 3Q Max
## -4.1113 -0.7166 0.1880 0.8887 2.1880
##
## Coefficients:
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) 1.81851 0.38236 4.756 6.20e-06 ***
## NORM 0.59870 0.08356 7.165 1.04e-10 ***
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 1.243 on 107 degrees of freedom
## Multiple R-squared: 0.3242, Adjusted R-squared: 0.3179
## F-statistic: 51.34 on 1 and 107 DF, p-value: 1.039e-10
Zobaczmy jak wygląda wykres punktowy (wykres rozrzutu) dla zmiennej objaśniającej i objaśnianej.
plot(FEELBAD ~ NORM, data = data)
abline(model)
Teraz użyć możemy naszych narzędzi diagnostycznych, które omówiliśmy wcześniej i zobaczyć, czy założenia regresji liniowej nie zostały poważnie naruszone.
par(mfrow = c(2,2))
plot(model)