Fot. Shutterstock
OpenAI przyznało grant naukowy
Uniwersytetowi Duke, by ich badacze przyjrzeli się
sztucznej inteligencji dokonującej moralnych osądów
. Nie podano wiele informacji na temat projektu o nazwie "Badania nad moralnością AI". Wiadomo jednak, że grant dobiega końca w 2025 roku i jest częścią większej, 3-letniej współpracy OpenAI z uczelnią.
Główni badacze projektu, Walter Sinnott-Armstrong oraz Jana Borg, opublikowali wcześniej prace naukowe o potencjale sztucznej inteligencji, która mogłaby służyć jako
"moralny GPS", pomagający ludziom podejmować trudne wybory
. W ramach jednego z badań udało im się opracować algorytm wspierający w podejmowaniu decyzji o tym, kto powinien otrzymać nerkę do transplantacji. Badali także, jakie moralne wybory ludzie woleliby, żeby były podejmowane przez sztuczną inteligencję.
W komunikacie prasowym OpenAI pisze, że prace Uniwersytetu Duke miałyby polegać na
trenowaniu algorytmów tak, aby umiały przewidywać "ludzkie osądy moralne"
w scenariuszach, gdzie dochodzi do konfliktów medycznych, prawnych czy biznesowych.
Jak przypomina portal TechCrunch, w 2021 roku powstał już bot Ask Delphi, stworzony przez organizację non-profit Allen Institute for AI, który miał pomagać właśnie w takich wyborach. Znaleziono jednak wiele sposobów, by go przechytrzyć i jak się okazało, niewielkie parafrazowanie komend prowadziło do tego, że Delphi przyzwalało na duszenie noworodków lub stwierdzało, że bycie heteroseksualnym jest bardziej "moralnie akceptowalne", niż bycie gejem.