Wpływ algorytmów na codzienne decyzje
Informacje, na których opieramy się w swoich codziennych wyborach zawodowych, ekonomicznych a nawet światopoglądowych coraz częściej trafiają do nas dzięki wszechobecnym już algorytmom. Chociaż korzystamy z wyselekcjonowanych przez nie danych, to zdarza nam się gubić się w informacyjnym nadmiarze, a w dodatku często nie rozumiemy z czym właściwie mamy do czynienia. Sieci neuronowe, które szybko wbudowują się w naszą codzienność są jak czarne skrzynki – zbyt skomplikowane, by wiedzieć, co dokładnie robią.
Mimo to, nie warto rezygnować z prób zrozumienia ich działania. Okazuje się bowiem, że algorytmy często zwracają nam właściwe odpowiedzi z zupełnie niewłaściwych powodów. To z kolei może prowadzić do błędów w ich dalszym działaniu oraz stwarzać różne zagrożenia – w tym te wynikające z wpływu na zachowanie człowieka (1, 3). Gdyby użytkownicy rozumieli zasady, na których opierają się działania algorytmów, mogliby łatwiej przewidywać i dostrzegać problemy oraz unikać kosztownych błędów.
Związki między transparentnością a zaufaniem
Kluczowym zagadnieniem staje się zatem interpretowalność, czyli zdolność algorytmu do wyjaśniania swoich decyzji lub przynajmniej klarownego prezentowania głównych kroków procesu decyzyjnego. Możemy założyć, że rozumiejąc, jak działa proces decyzyjny, łatwiej wpływalibyśmy na jego udoskonalenie i korektę – rozumiejąc proces rozumielibyśmy przecież, jak powstają błędy. Jednak transparentność algorytmu i związane z nią zrozumienie nie są jedynymi czynnikami, które wpływają na interakcje zachodzące między człowiekiem a sztucznym procesem decyzyjnym. Wielu badaczy łączy bowiem transparentność procesu decyzyjnego z łatwością użytkowania i zaufaniem do algorytmu (np. 2,3). Te czynniki na pierwszy rzut oka mogą wydawać się jak najbardziej pożądane, ale warto wskazać, z jakimi potencjalnymi konsekwencjami się wiążą.
Nadmierne poleganie na algorytmach
Kwestia wydaje się szczególnie istotna, jeśli uświadomimy sobie, że drugim ważnym problemem pojawiającym się w kontekście algorytmów jest nadmierne poleganie na ich decyzjach przez użytkowników i nieangażowanie się w krytyczną analizę efektów ich działania (3, 10). Przykładowo, niedawno przeprowadzono badanie w obszarze działań inwestycyjnych prowadzonych w ramach pewnej organizacji (7). Zadaniem kadry menedżerskiej wyższego szczebla było podjęcie decyzji o zainwestowaniu środków finansowych w nową technologię. Kadrę podzielono na dwie 75-osobowe grupy. Członkom jednej z grup doradzał zespół menedżerski, członkowie drugiej opierali się na rekomendacjach generowanych przez system oparty o AI. Jak się okazało, członkowie drugiej grupy częściej decydowaliby się na zainwestowanie środków. Autorzy badania wskazują, że uzyskany efekt wiązał się z większym zaufaniem do systemu AI postrzeganego jako bardziej obiektywnego i analitycznego, niż do wskazówek udzielanych przez innego człowieka. Przy tym, co istotne, wysoki poziom zaufania w większości kontekstów nie prowadzi do krytycznego myślenia, poszukiwania alternatywnych odpowiedzi lub czujności, które mogłyby pomóc zweryfikować przyjęte założenia czy rozwiązania (6). W szerszej perspektywie postrzeganie systemów opartych na AI jako bardziej obiektywnych i w związku z tym mniej zawodnych może się zatem wiązać nie tylko z brakiem weryfikacji, ale także z popełnianiem większej liczby błędów tam, gdzie człowiek wykorzystując algorytm nadmiernie na nim polega (3).
Ryzyko braku krytycznego myślenia
Ryzykownym byłoby także założenie, że użytkownicy niejako automatycznie będą krytyczni względem tego, co wskaże im dany model oraz zaangażują się w analizę efektów jego działania (3). Dlaczego mieliby to robić? Tego typu poznawcze zaangażowanie to wysiłek – bardzo mocno odczuwany i często nieprzyjemny (4). To także wysiłek, którego raczej staramy się unikać (5,8). Niedawno zmarły noblista Daniel Kahneman wielokrotnie wykazywał, że bardzo chętnie korzystamy z heurystyk i skrótów myślowych, a szczególnie chętnie w skomplikowanych sytuacjach lub gdy musimy oprzeć się na niepełnych danych – czyli wtedy, gdy nasze rozumienie jest niekompletne. Zjawisko jest na tyle dobrze znane i udokumentowane, iż ukuty dla niego został termin the law of least mental effort (9).
Możemy zatem założyć, że konieczność koncentrowania się, analizowania, decydowania i korygowania algorytmu nie będzie wiązała się pozytywnie z łatwością czy zadowoleniem z użytkowania danego systemu, a
typowym sposobem radzenia sobie ze skomplikowanym wyjaśnieniem natury decyzji podjętej przez AI będzie jej przyjęcie ze względu na zaufanie do procesu (3, 10). Coraz częściej prowadzone badania w tym obszarze wskazują jednak, że nadmierne poleganie na algorytmie można modyfikować na przykład za pomocą stosowania nagród finansowych wzbudzających motywację (10) – jak wskazują autorzy w takich właśnie warunkach trudne wyjaśnienia sztucznego procesu decyzyjnego faktycznie mogą być wykorzystywane przez użytkowników do krytycznej oceny tegoż procesu. Mogą, o ile człowiek będzie miał cel w angażowaniu się w rozumienie i analizowanie. Ciekawym pomysłem wydaje się być także stosowanie interwencji niejako wymuszających zaangażowanie poznawcze, czyli na przykład konieczność podjęcia własnej decyzji zanim zrobi to AI i skonfrontowanie jej z rekomendacją (3). Ten drugi sposób wiąże się jednak z obniżeniem zadowolenia ze współdziałania z algorytmem.
Podsumowanie
Wygląda zatem na to, że trafiliśmy na stary problem w nowej odsłonie: to trade-off między krytycznym myśleniem a stosowaniem heurystyk, zaufaniem a czujnością, oszczędzaniem a wydatkowaniem energii, kosztem i zyskiem. Na tym tle pytanie o to, jaka relacja zachodzi między interpretowalnością danego procesu decyzyjnego a poznawczym zaangażowaniem użytkownika oraz jakie czynniki w tej relacji należy jeszcze wziąć pod uwagę, wydaje się istotnym pytaniem. Między innymi takimi zagadnieniami zajmuje się wraz z zespołem dr hab. Bartosz Zieliński, prof. UJ w ramach projektu naukowego pt. “Interpretowalne metody zrównoważonej sztucznej inteligencji tłumaczące decyzje w sposób intuicyjny” (nr 2022/47/B/ST6/03397) finansowanego przez Narodowe Centrum Nauki.
Bibliografia:
1) Schramowski P. et al. Making deep neural networks right for the right scientific reasons by interacting with their explanations. Nature Machine Intelligence, 2(8):476–486, 2020.
2) Shin, D., Zhong, B., & Biocca, F. A. (2020). Beyond user experience: What constitutes algorithmic experiences?. International Journal of Information Management, 52, 102061.
3) Buçinca, Z., Malaya, M. B., & Gajos, K. Z. (2021). To trust or to think: cognitive forcing functions can reduce overreliance on AI in AI-assisted decision-making. Proceedings of the ACM on Human-Computer Interaction, 5(CSCW1), 1-21.
4) Kool, W., & Botvinick, M. (2018). Mental labour. Nature human behaviour, 2(12), 899-908. 5) Kahneman, D. (2017). Thinking, fast and slow.
6) Mayo, R. (2017). Cognition is a matter of trust: Distrust tunes cognitive processes. European Review of Social Psychology: Volume 26, 283-327.
7) Keding, C., & Meissner, P. (2021). Managerial overreliance on AI-augmented decision-making processes: How the use of AI-based advisory systems shapes choice behavior in R&D investment decisions. Technological Forecasting and Social Change, 171, 120970.
8) Székely, M., & Michael, J. (2021). The sense of effort: A cost-benefit theory of the phenomenology of mental effort. Review of Philosophy and Psychology, 12(4), 889-904.
9) Patzelt, E. H., Kool, W., Millner, A. J., & Gershman, S. J. (2019). The transdiagnostic structure of mental effort avoidance. Scientific reports, 9(1), 1689.
10) Vasconcelos, H., Jörke, M., Grunde-McLaughlin, M., Gerstenberg, T., Bernstein, M. S., & Krishna, R. (2023). Explanations can reduce overreliance on ai systems during decision-making. Proceedings of the ACM on Human-Computer Interaction, 7(CSCW1), 1-38.
Koryna Lewandowska
Obroniła doktorat z psychologii na Uniwersytecie Jagiellońskim w 2019 roku, skupiając się na wpływie nastawienia decyzyjnego na krótkotrwałą pamięć wzrokową. Obecnie pełni funkcję adiunkta w Zakładzie Neurokognitywistyki i Neuroergonomii w Instytucie Psychologii Stosowanej na swojej macierzystej uczleni. Jej zainteresowania badawcze obejmują psychologię poznawczą, neurobiologię poznawczą, chronopsychologię oraz terapię poznawczo-behawioralną.
Wpływ algorytmów na codzienne decyzje
Informacje, na których opieramy się w swoich codziennych wyborach zawodowych, ekonomicznych a nawet światopoglądowych coraz częściej trafiają do nas dzięki wszechobecnym już algorytmom. Chociaż korzystamy z wyselekcjonowanych przez nie danych, to zdarza nam się gubić się w informacyjnym nadmiarze, a w dodatku często nie rozumiemy z czym właściwie mamy do czynienia. Sieci neuronowe, które szybko wbudowują się w naszą codzienność są jak czarne skrzynki – zbyt skomplikowane, by wiedzieć, co dokładnie robią.
Mimo to, nie warto rezygnować z prób zrozumienia ich działania. Okazuje się bowiem, że algorytmy często zwracają nam właściwe odpowiedzi z zupełnie niewłaściwych powodów. To z kolei może prowadzić do błędów w ich dalszym działaniu oraz stwarzać różne zagrożenia – w tym te wynikające z wpływu na zachowanie człowieka (1, 3). Gdyby użytkownicy rozumieli zasady, na których opierają się działania algorytmów, mogliby łatwiej przewidywać i dostrzegać problemy oraz unikać kosztownych błędów.
Związki między transparentnością a zaufaniem
Kluczowym zagadnieniem staje się zatem interpretowalność, czyli zdolność algorytmu do wyjaśniania swoich decyzji lub przynajmniej klarownego prezentowania głównych kroków procesu decyzyjnego. Możemy założyć, że rozumiejąc, jak działa proces decyzyjny, łatwiej wpływalibyśmy na jego udoskonalenie i korektę – rozumiejąc proces rozumielibyśmy przecież, jak powstają błędy. Jednak transparentność algorytmu i związane z nią zrozumienie nie są jedynymi czynnikami, które wpływają na interakcje zachodzące między człowiekiem a sztucznym procesem decyzyjnym. Wielu badaczy łączy bowiem transparentność procesu decyzyjnego z łatwością użytkowania i zaufaniem do algorytmu (np. 2,3). Te czynniki na pierwszy rzut oka mogą wydawać się jak najbardziej pożądane, ale warto wskazać, z jakimi potencjalnymi konsekwencjami się wiążą.
Nadmierne poleganie na algorytmach
Kwestia wydaje się szczególnie istotna, jeśli uświadomimy sobie, że drugim ważnym problemem pojawiającym się w kontekście algorytmów jest nadmierne poleganie na ich decyzjach przez użytkowników i nieangażowanie się w krytyczną analizę efektów ich działania (3, 10). Przykładowo, niedawno przeprowadzono badanie w obszarze działań inwestycyjnych prowadzonych w ramach pewnej organizacji (7). Zadaniem kadry menedżerskiej wyższego szczebla było podjęcie decyzji o zainwestowaniu środków finansowych w nową technologię. Kadrę podzielono na dwie 75-osobowe grupy. Członkom jednej z grup doradzał zespół menedżerski, członkowie drugiej opierali się na rekomendacjach generowanych przez system oparty o AI. Jak się okazało, członkowie drugiej grupy częściej decydowaliby się na zainwestowanie środków. Autorzy badania wskazują, że uzyskany efekt wiązał się z większym zaufaniem do systemu AI postrzeganego jako bardziej obiektywnego i analitycznego, niż do wskazówek udzielanych przez innego człowieka. Przy tym, co istotne, wysoki poziom zaufania w większości kontekstów nie prowadzi do krytycznego myślenia, poszukiwania alternatywnych odpowiedzi lub czujności, które mogłyby pomóc zweryfikować przyjęte założenia czy rozwiązania (6). W szerszej perspektywie postrzeganie systemów opartych na AI jako bardziej obiektywnych i w związku z tym mniej zawodnych może się zatem wiązać nie tylko z brakiem weryfikacji, ale także z popełnianiem większej liczby błędów tam, gdzie człowiek wykorzystując algorytm nadmiernie na nim polega (3).
Ryzyko braku krytycznego myślenia
Ryzykownym byłoby także założenie, że użytkownicy niejako automatycznie będą krytyczni względem tego, co wskaże im dany model oraz zaangażują się w analizę efektów jego działania (3). Dlaczego mieliby to robić? Tego typu poznawcze zaangażowanie to wysiłek – bardzo mocno odczuwany i często nieprzyjemny (4). To także wysiłek, którego raczej staramy się unikać (5,8). Niedawno zmarły noblista Daniel Kahneman wielokrotnie wykazywał, że bardzo chętnie korzystamy z heurystyk i skrótów myślowych, a szczególnie chętnie w skomplikowanych sytuacjach lub gdy musimy oprzeć się na niepełnych danych – czyli wtedy, gdy nasze rozumienie jest niekompletne. Zjawisko jest na tyle dobrze znane i udokumentowane, iż ukuty dla niego został termin the law of least mental effort (9).
Możemy zatem założyć, że konieczność koncentrowania się, analizowania, decydowania i korygowania algorytmu nie będzie wiązała się pozytywnie z łatwością czy zadowoleniem z użytkowania danego systemu, a
typowym sposobem radzenia sobie ze skomplikowanym wyjaśnieniem natury decyzji podjętej przez AI będzie jej przyjęcie ze względu na zaufanie do procesu (3, 10). Coraz częściej prowadzone badania w tym obszarze wskazują jednak, że nadmierne poleganie na algorytmie można modyfikować na przykład za pomocą stosowania nagród finansowych wzbudzających motywację (10) – jak wskazują autorzy w takich właśnie warunkach trudne wyjaśnienia sztucznego procesu decyzyjnego faktycznie mogą być wykorzystywane przez użytkowników do krytycznej oceny tegoż procesu. Mogą, o ile człowiek będzie miał cel w angażowaniu się w rozumienie i analizowanie. Ciekawym pomysłem wydaje się być także stosowanie interwencji niejako wymuszających zaangażowanie poznawcze, czyli na przykład konieczność podjęcia własnej decyzji zanim zrobi to AI i skonfrontowanie jej z rekomendacją (3). Ten drugi sposób wiąże się jednak z obniżeniem zadowolenia ze współdziałania z algorytmem.
Podsumowanie
Wygląda zatem na to, że trafiliśmy na stary problem w nowej odsłonie: to trade-off między krytycznym myśleniem a stosowaniem heurystyk, zaufaniem a czujnością, oszczędzaniem a wydatkowaniem energii, kosztem i zyskiem. Na tym tle pytanie o to, jaka relacja zachodzi między interpretowalnością danego procesu decyzyjnego a poznawczym zaangażowaniem użytkownika oraz jakie czynniki w tej relacji należy jeszcze wziąć pod uwagę, wydaje się istotnym pytaniem. Między innymi takimi zagadnieniami zajmuje się wraz z zespołem dr hab. Bartosz Zieliński, prof. UJ w ramach projektu naukowego pt. “Interpretowalne metody zrównoważonej sztucznej inteligencji tłumaczące decyzje w sposób intuicyjny” (nr 2022/47/B/ST6/03397) finansowanego przez Narodowe Centrum Nauki.
Bibliografia:
1) Schramowski P. et al. Making deep neural networks right for the right scientific reasons by interacting with their explanations. Nature Machine Intelligence, 2(8):476–486, 2020.
2) Shin, D., Zhong, B., & Biocca, F. A. (2020). Beyond user experience: What constitutes algorithmic experiences?. International Journal of Information Management, 52, 102061.
3) Buçinca, Z., Malaya, M. B., & Gajos, K. Z. (2021). To trust or to think: cognitive forcing functions can reduce overreliance on AI in AI-assisted decision-making. Proceedings of the ACM on Human-Computer Interaction, 5(CSCW1), 1-21.
4) Kool, W., & Botvinick, M. (2018). Mental labour. Nature human behaviour, 2(12), 899-908. 5) Kahneman, D. (2017). Thinking, fast and slow.
6) Mayo, R. (2017). Cognition is a matter of trust: Distrust tunes cognitive processes. European Review of Social Psychology: Volume 26, 283-327.
7) Keding, C., & Meissner, P. (2021). Managerial overreliance on AI-augmented decision-making processes: How the use of AI-based advisory systems shapes choice behavior in R&D investment decisions. Technological Forecasting and Social Change, 171, 120970.
8) Székely, M., & Michael, J. (2021). The sense of effort: A cost-benefit theory of the phenomenology of mental effort. Review of Philosophy and Psychology, 12(4), 889-904.
9) Patzelt, E. H., Kool, W., Millner, A. J., & Gershman, S. J. (2019). The transdiagnostic structure of mental effort avoidance. Scientific reports, 9(1), 1689.
10) Vasconcelos, H., Jörke, M., Grunde-McLaughlin, M., Gerstenberg, T., Bernstein, M. S., & Krishna, R. (2023). Explanations can reduce overreliance on ai systems during decision-making. Proceedings of the ACM on Human-Computer Interaction, 7(CSCW1), 1-38.
Koryna Lewandowska
Obroniła doktorat z psychologii na Uniwersytecie Jagiellońskim w 2019 roku, skupiając się na wpływie nastawienia decyzyjnego na krótkotrwałą pamięć wzrokową. Obecnie pełni funkcję adiunkta w Zakładzie Neurokognitywistyki i Neuroergonomii w Instytucie Psychologii Stosowanej na swojej macierzystej uczleni. Jej zainteresowania badawcze obejmują psychologię poznawczą, neurobiologię poznawczą, chronopsychologię oraz terapię poznawczo-behawioralną.
Wpływ algorytmów na codzienne decyzje
Informacje, na których opieramy się w swoich codziennych wyborach zawodowych, ekonomicznych a nawet światopoglądowych coraz częściej trafiają do nas dzięki wszechobecnym już algorytmom. Chociaż korzystamy z wyselekcjonowanych przez nie danych, to zdarza nam się gubić się w informacyjnym nadmiarze, a w dodatku często nie rozumiemy z czym właściwie mamy do czynienia. Sieci neuronowe, które szybko wbudowują się w naszą codzienność są jak czarne skrzynki – zbyt skomplikowane, by wiedzieć, co dokładnie robią.
Mimo to, nie warto rezygnować z prób zrozumienia ich działania. Okazuje się bowiem, że algorytmy często zwracają nam właściwe odpowiedzi z zupełnie niewłaściwych powodów. To z kolei może prowadzić do błędów w ich dalszym działaniu oraz stwarzać różne zagrożenia – w tym te wynikające z wpływu na zachowanie człowieka (1, 3). Gdyby użytkownicy rozumieli zasady, na których opierają się działania algorytmów, mogliby łatwiej przewidywać i dostrzegać problemy oraz unikać kosztownych błędów.
Związki między transparentnością a zaufaniem
Kluczowym zagadnieniem staje się zatem interpretowalność, czyli zdolność algorytmu do wyjaśniania swoich decyzji lub przynajmniej klarownego prezentowania głównych kroków procesu decyzyjnego. Możemy założyć, że rozumiejąc, jak działa proces decyzyjny, łatwiej wpływalibyśmy na jego udoskonalenie i korektę – rozumiejąc proces rozumielibyśmy przecież, jak powstają błędy. Jednak transparentność algorytmu i związane z nią zrozumienie nie są jedynymi czynnikami, które wpływają na interakcje zachodzące między człowiekiem a sztucznym procesem decyzyjnym. Wielu badaczy łączy bowiem transparentność procesu decyzyjnego z łatwością użytkowania i zaufaniem do algorytmu (np. 2,3). Te czynniki na pierwszy rzut oka mogą wydawać się jak najbardziej pożądane, ale warto wskazać, z jakimi potencjalnymi konsekwencjami się wiążą.
Nadmierne poleganie na algorytmach
Kwestia wydaje się szczególnie istotna, jeśli uświadomimy sobie, że drugim ważnym problemem pojawiającym się w kontekście algorytmów jest nadmierne poleganie na ich decyzjach przez użytkowników i nieangażowanie się w krytyczną analizę efektów ich działania (3, 10). Przykładowo, niedawno przeprowadzono badanie w obszarze działań inwestycyjnych prowadzonych w ramach pewnej organizacji (7). Zadaniem kadry menedżerskiej wyższego szczebla było podjęcie decyzji o zainwestowaniu środków finansowych w nową technologię. Kadrę podzielono na dwie 75-osobowe grupy. Członkom jednej z grup doradzał zespół menedżerski, członkowie drugiej opierali się na rekomendacjach generowanych przez system oparty o AI. Jak się okazało, członkowie drugiej grupy częściej decydowaliby się na zainwestowanie środków. Autorzy badania wskazują, że uzyskany efekt wiązał się z większym zaufaniem do systemu AI postrzeganego jako bardziej obiektywnego i analitycznego, niż do wskazówek udzielanych przez innego człowieka. Przy tym, co istotne, wysoki poziom zaufania w większości kontekstów nie prowadzi do krytycznego myślenia, poszukiwania alternatywnych odpowiedzi lub czujności, które mogłyby pomóc zweryfikować przyjęte założenia czy rozwiązania (6). W szerszej perspektywie postrzeganie systemów opartych na AI jako bardziej obiektywnych i w związku z tym mniej zawodnych może się zatem wiązać nie tylko z brakiem weryfikacji, ale także z popełnianiem większej liczby błędów tam, gdzie człowiek wykorzystując algorytm nadmiernie na nim polega (3).
Ryzyko braku krytycznego myślenia
Ryzykownym byłoby także założenie, że użytkownicy niejako automatycznie będą krytyczni względem tego, co wskaże im dany model oraz zaangażują się w analizę efektów jego działania (3). Dlaczego mieliby to robić? Tego typu poznawcze zaangażowanie to wysiłek – bardzo mocno odczuwany i często nieprzyjemny (4). To także wysiłek, którego raczej staramy się unikać (5,8). Niedawno zmarły noblista Daniel Kahneman wielokrotnie wykazywał, że bardzo chętnie korzystamy z heurystyk i skrótów myślowych, a szczególnie chętnie w skomplikowanych sytuacjach lub gdy musimy oprzeć się na niepełnych danych – czyli wtedy, gdy nasze rozumienie jest niekompletne. Zjawisko jest na tyle dobrze znane i udokumentowane, iż ukuty dla niego został termin the law of least mental effort (9).
Możemy zatem założyć, że konieczność koncentrowania się, analizowania, decydowania i korygowania algorytmu nie będzie wiązała się pozytywnie z łatwością czy zadowoleniem z użytkowania danego systemu, a
typowym sposobem radzenia sobie ze skomplikowanym wyjaśnieniem natury decyzji podjętej przez AI będzie jej przyjęcie ze względu na zaufanie do procesu (3, 10). Coraz częściej prowadzone badania w tym obszarze wskazują jednak, że nadmierne poleganie na algorytmie można modyfikować na przykład za pomocą stosowania nagród finansowych wzbudzających motywację (10) – jak wskazują autorzy w takich właśnie warunkach trudne wyjaśnienia sztucznego procesu decyzyjnego faktycznie mogą być wykorzystywane przez użytkowników do krytycznej oceny tegoż procesu. Mogą, o ile człowiek będzie miał cel w angażowaniu się w rozumienie i analizowanie. Ciekawym pomysłem wydaje się być także stosowanie interwencji niejako wymuszających zaangażowanie poznawcze, czyli na przykład konieczność podjęcia własnej decyzji zanim zrobi to AI i skonfrontowanie jej z rekomendacją (3). Ten drugi sposób wiąże się jednak z obniżeniem zadowolenia ze współdziałania z algorytmem.
Podsumowanie
Wygląda zatem na to, że trafiliśmy na stary problem w nowej odsłonie: to trade-off między krytycznym myśleniem a stosowaniem heurystyk, zaufaniem a czujnością, oszczędzaniem a wydatkowaniem energii, kosztem i zyskiem. Na tym tle pytanie o to, jaka relacja zachodzi między interpretowalnością danego procesu decyzyjnego a poznawczym zaangażowaniem użytkownika oraz jakie czynniki w tej relacji należy jeszcze wziąć pod uwagę, wydaje się istotnym pytaniem. Między innymi takimi zagadnieniami zajmuje się wraz z zespołem dr hab. Bartosz Zieliński, prof. UJ w ramach projektu naukowego pt. “Interpretowalne metody zrównoważonej sztucznej inteligencji tłumaczące decyzje w sposób intuicyjny” (nr 2022/47/B/ST6/03397) finansowanego przez Narodowe Centrum Nauki.
Bibliografia:
1) Schramowski P. et al. Making deep neural networks right for the right scientific reasons by interacting with their explanations. Nature Machine Intelligence, 2(8):476–486, 2020.
2) Shin, D., Zhong, B., & Biocca, F. A. (2020). Beyond user experience: What constitutes algorithmic experiences?. International Journal of Information Management, 52, 102061.
3) Buçinca, Z., Malaya, M. B., & Gajos, K. Z. (2021). To trust or to think: cognitive forcing functions can reduce overreliance on AI in AI-assisted decision-making. Proceedings of the ACM on Human-Computer Interaction, 5(CSCW1), 1-21.
4) Kool, W., & Botvinick, M. (2018). Mental labour. Nature human behaviour, 2(12), 899-908. 5) Kahneman, D. (2017). Thinking, fast and slow.
6) Mayo, R. (2017). Cognition is a matter of trust: Distrust tunes cognitive processes. European Review of Social Psychology: Volume 26, 283-327.
7) Keding, C., & Meissner, P. (2021). Managerial overreliance on AI-augmented decision-making processes: How the use of AI-based advisory systems shapes choice behavior in R&D investment decisions. Technological Forecasting and Social Change, 171, 120970.
8) Székely, M., & Michael, J. (2021). The sense of effort: A cost-benefit theory of the phenomenology of mental effort. Review of Philosophy and Psychology, 12(4), 889-904.
9) Patzelt, E. H., Kool, W., Millner, A. J., & Gershman, S. J. (2019). The transdiagnostic structure of mental effort avoidance. Scientific reports, 9(1), 1689.
10) Vasconcelos, H., Jörke, M., Grunde-McLaughlin, M., Gerstenberg, T., Bernstein, M. S., & Krishna, R. (2023). Explanations can reduce overreliance on ai systems during decision-making. Proceedings of the ACM on Human-Computer Interaction, 7(CSCW1), 1-38.
Koryna Lewandowska
Obroniła doktorat z psychologii na Uniwersytecie Jagiellońskim w 2019 roku, skupiając się na wpływie nastawienia decyzyjnego na krótkotrwałą pamięć wzrokową. Obecnie pełni funkcję adiunkta w Zakładzie Neurokognitywistyki i Neuroergonomii w Instytucie Psychologii Stosowanej na swojej macierzystej uczleni. Jej zainteresowania badawcze obejmują psychologię poznawczą, neurobiologię poznawczą, chronopsychologię oraz terapię poznawczo-behawioralną.