Skip to main content
NEOP/X

인공지능 윤리성이 소비자 인식과 사용의도에 미치는 효과: TRUST 윤리 프레임워크의 제안과 실증

이실장 1일 ago

TRUST 윤리 프레임워크의 제안과 실증

본 연구는 생성형 인공지능의 윤리적 수용 메커니즘을 규명하기 위해, AI 윤리성을 투명성(Transparency), 책임성(Responsibility), 공정성(Unbiasedness), 안전성(Safety), 신뢰(Trust)의 다섯 차원으로 구조화한 TRUST 프레임워크를 제안하고 그 작동을 실증하였다. 연구 모형은 투명성, 공정성, 안전성을 독립변수로 설정하고, 이러한 선행 요인이 책임성을 매개해 소비자 신뢰 형성에 미치는 영향을 분석하며, 형성된 소비자 신뢰는 소비자의 태도를 통해 최종적으로 지속사용의도에 영향을 미치는 순차적 다중매개효과를 검증한다. SmartPLS 4의PLS-SEM 분석 결과, 선행 요인은 책임성을 통하여 소비자 신뢰에 유의한 간접 효과를 미치는 것으로 나타났다. 또한, 이러한 신뢰가 소비자의 태도를 매개로 최종적인 지속사용의도까지 이어지는 순차적 매개 경로가 유의미하게 확인되었다. 이는 AI 윤리성이 직접적 설득보다 생성형 인공지능의 운영이나 관리 체계에 대한 소비자의 지각된 책임인식을 통해 신뢰를 형성하고, 그 신뢰가 태도를 거쳐 행동 의도로 이어지는 수용 과정을 거친다는 점을보여준다. 학문적으로 본 연구는 인공지능 윤리성의 다차원의 구조적 관계와 매개 경로를 정립하여 윤리성 → 신뢰 → 태도 → 사용의도로 이어지는 형성과정을 명확히 제시하였고, 실무적으로는 투명성, 공정성, 안전성의 표준운영을 기반으로 책임성을 우선 강화하고 이를 일관되게 커뮤니케이션할 때 사용자 수용을 극대화할 수 있음을 시사한다.

본 연구는 생성형 인공지능의 윤리적 수용 메커니즘을 소비자 지각 관점에서 규명하기 위해, AI 윤리성을 투명성(Transparency), 공정성(Unbiasedness), 안전성(Safety), 책임성(Responsibility), 신뢰(Trust)의 다섯 차원으로 구조화한 ‘TRUST’ 프레임워크의 작동 경로를 실증적으로 검증하였다. 분석 결과, 소비자가 기술의 윤리적 운영을 투명(T)하고 공정(U)하며 안전(S)하다고 인식할수록 운영 주체가
책임 있게 관리하고 시정할 것이라는 책임성(R) 지각이 강화되었고, 이러한 책임성 인식은 기술에 대한 신뢰(T) 형성으로 연결되었다. 더 나아가 형성된 신뢰는 소비자의 태도를 통해 지속사용의도로 이어져, ‘윤리 인식 → 책임성 → 신뢰 → 태도 →지속사용의도’라는 단계적 수용 경로, 즉 TRUST 프레임워크가 태도를 거쳐 지속사용의도로 이어지는 경로가 전반적으로 확인되었다.
또한 순차적 다중매개효과 관점에서 볼 때, 투명성과 안전성은 책임성 → 신뢰 → 태도를 순차적으로 경유하여 지속사용의도에 영향을 미치는 간접효과가 명확히 확인된 반면, 공정성은 동일한 최종 순차 경로에서 유의성이 충분히 확보되지 않아 윤리 차원별 영향력에 차이가 있음을 보여주었다. 이는 소비자가 공정성을 중요한 윤리 기준으로 인식하더라도, 그 인식이 지속사용의도까지 안정적으로 전
이되기 위해서는 공정성이 책임성 및 신뢰를 넘어태도와 행동의도로 연결되는 과정에서 추가적인 조건이 필요할 수 있음을 시사한다.
종합하면, 본 연구는 기존의 제도 및 규제 중심 AI 윤리 논의를 보완하는 소비자 지각 기반 TRUST 모형을 제안하고, 윤리성이 단순한 규범 준수 차원을 넘어 책임성 지각을 매개로 신뢰를 형성하며, 그 신뢰가 태도와 지속사용의도로 이어지는 소비자 반응의 핵심 경로임을 실증적으로 제시하였다. 실무적으로는 투명성과 안전성을 표준 운영 수준에서 우선적으로 강화하고, 시정 절차의 실효성 및 책임 있
는 운영 역량을 소비자가 확인할 수 있도록 일관되게 커뮤니케이션할 때 신뢰 형성과 지속사용의도를극대화할 수 있음을 보여준다.

 

https://www.kci.go.kr/kciportal/ci/sereArticleSearch/ciSereArtiView.kci?sereArticleSearchBean.artiId=ART003311032

논문 다운로드 바로가기