누구를 비난해야 할까요?  인간의 책임을 어떻게 인식하는가

블로그

홈페이지홈페이지 / 블로그 / 누구를 비난해야 할까요? 인간의 책임을 어떻게 인식하는가

Jun 02, 2023

누구를 비난해야 할까요? 인간의 책임을 어떻게 인식하는가

요약: 사람들이 AI 기반 비서를 단지 도구로 보는 경우에도 의사 결정에 대한 부분적인 책임을 여전히 시스템에 부여합니다. 연구에서는 참가자들이 어떻게 인식하는지 조사했습니다.

요약:사람들이 AI 기반 비서를 단지 도구로 보는 경우에도 여전히 의사 결정에 대해 이러한 시스템에 부분적인 책임을 부여합니다.

이 연구에서는 인간 운전자가 AI 기반 보조 장치와 비AI 내비게이션 기기를 사용할 때 참가자들이 책임감을 어떻게 인식하는지 조사했습니다. 참가자들은 AI 비서가 성공과 실패 모두에 부분적으로 책임이 있다는 사실을 발견했지만, 이러한 시스템은 단지 도구일 뿐임을 확인했습니다.

이 연구는 AI가 의사결정에 참여할 때 사람들이 칭찬과 비난에 대해 어떻게 서로 다른 도덕적 기준을 적용하는지에 대해 새로운 시각을 제시합니다.

중요한 사실

원천:LMU

새로운 연구에 따르면 인간은 AI 기반 비서를 순전히 도구로 볼 때에도 결정에 대한 부분적인 책임을 인간에게 돌립니다.

미래의 AI 기반 시스템은 사람의 입력 없이 교통 흐름을 통해 자율주행차를 탐색할 수 있습니다. 연구에 따르면 사람들은 자율적인 교통 결정을 내릴 때 그러한 미래형 AI 시스템이 인간과 마찬가지로 책임이 있다고 판단하는 것으로 나타났습니다. 그러나 실제 AI 비서는 이러한 자율성과는 거리가 멀다.

이는 인간 사용자에게 내비게이션 및 운전 보조 장치와 같은 지원 정보를 제공합니다. 그렇다면 이러한 실제 사건에서 무언가가 옳거나 잘못되었을 때 누가 책임을 져야 할까요? 인간 사용자? 아니면 AI 비서?

정신 철학 의장인 Louis Longin이 이끄는 팀은 이제 사람들이 이러한 경우에 책임을 어떻게 평가하는지 조사했습니다.

Longin은 “우리 모두의 주머니에는 스마트 비서가 있습니다.”라고 말합니다.

“그러나 책임 격차에 대해 우리가 가지고 있는 많은 실험적 증거는 AI가 말 그대로 운전석에 앉아 우리를 대신해 결정하는 로봇이나 자율주행차에 초점을 맞추고 있습니다. 우리가 여전히 최종 결정을 내리지만 AI를 정교한 도구처럼 사용하는 사례를 조사하는 것이 필수적입니다.”

인간과 AI 사이의 상호 작용을 전문으로 하는 철학자인 Longin은 그의 동료인 Bahador Bahrami 박사와 마음 철학 의장인 Ophelia Deroy 교수와 협력하여 940명의 참가자가 스마트 AI 기반 장치를 사용하여 인간 운전자를 어떻게 판단했는지 조사했습니다. 언어 비서, 스마트 AI 기반 촉각 비서 또는 비 AI 내비게이션 기기. 참가자들은 또한 내비게이션 보조 장치가 책임이 있다고 생각하는지, 그리고 어느 정도 도구인지를 표시했습니다.

스마트 어시스턴트의 양면적 위상

결과는 양면성을 드러냈습니다. 참가자들은 스마트 어시스턴트가 단지 도구일 뿐이라고 강력히 주장했지만, 스마트 어시스턴트를 상담한 인간 운전자의 성공이나 실패에 부분적으로 책임이 있다고 생각했습니다. AI가 지원되지 않는 장비에 대해서는 그러한 책임 분담이 발생하지 않았습니다.

저자에게 그다지 놀라운 일은 스마트 비서가 부정적인 결과보다는 긍정적인 결과에 더 큰 책임이 있는 것으로 간주되었다는 것입니다.

“사람들은 칭찬과 비난에 대해 서로 다른 도덕적 기준을 적용할 수 있습니다. 충돌을 피하고 피해가 발생하지 않으면 표준이 완화되어 사람들이 비인간 시스템에 비난보다 공을 돌리는 것이 더 쉬워집니다.”라고 공동 책임 전문가인 Bahrami 박사는 말합니다.

언어의 역할은 관련이 없습니다

연구에서 저자는 언어를 사용하는 스마트 비서와 바퀴의 촉각 진동으로 사용자에게 경고를 보내는 스마트 비서 사이에 차이가 없음을 발견했습니다.

"이 경우 두 사람은 '조심해, 앞으로 뭔가 있어'라는 동일한 정보를 제공했지만 물론 실제로 ChatGPT는 훨씬 더 많은 정보를 제공합니다."라고 Ophelia Deroy는 말합니다. 애니미스트 신앙.

ChatGPT와 같은 새로운 언어 기반 AI 시스템이 제공하는 추가 정보와 관련하여 Deroy는 "상호작용이 풍부할수록 의인화하기가 더 쉽습니다."라고 덧붙였습니다.

“요컨대 우리 연구 결과는 AI 비서가 단순한 추천 도구 이상의 것으로 여겨지지만 그럼에도 불구하고 인간 표준과는 거리가 멀다는 생각을 뒷받침합니다.”라고 Longin은 말합니다.