AI와 함께하는 일상, 그 ‘관계의 역학’을 묻다

조회수: 57
5월 06, 2026

글 고성연(타이베이·타이중 현지 취재)

타이중 국가가극원(NTT) 〈Ray Tseng × Hung Chien-han: As One〉

AI의 놀라운 확산과 침투가 이뤄지고 있는 오늘날, 인간과 기술의 공존은 섬뜩할 정도로 ‘친밀한 동거’로 치닫고 있다. 타이중 국가가극원(NTT)의 ‘이머징 아티스트 프로젝트(Emerging Artists Project)’로 선정된 레이쩡(Ray Tseng)과 훙치엔한(Hung Chien-han)의 공동 연출작 〈As One〉은 동시대 기술을 둘러싼 익숙한 찬반 구도를 벗어난다. AI를 둘러싼 윤리적 판단을 거론하는 게 아니라 거부 없이 이어지는 ‘응답’ 속에서 만들어지는 관계의 구조를 들여다보고, 우리로 하여금 그 작동 방식의 영향력을 곱씹게 한다. 이러한 과정을 직접 ‘통과’해본다는 차원에서 패기 넘치는 2인의 감독은 AI를 세 번째 연출자로 초대했다. 오는 5월 중순, NTT에서 막을 올릴 〈As One〉을 타이베이에서 열린 리허설을 통해 미리 만나봤다.


1


대만 문화 예술계에서 참신한 시각으로 주목받아온 훙치엔한(Hung Chien-han)과 레이쩡(Ray Tseng)이 공동 연출한 60분짜리 실험극 〈As One〉은 오늘날 대다수가 고민하고 있을지도 모르는 지점을 정면으로 마주하게 한다. 우리는 과연 AI와 ‘대화’하고 있는가, 아니면 단지 우리의 말을 되비추는 거울 앞에서 감정을 투사하며 혼잣말을 하고 있는가?


작품은 먼저 관객에게 일련의 질문을 던지며 시작된다. 천국을 믿는가, 영혼이 존재한다고 생각하는가, 기후 위기를 체감하는가, AI에게 더 인간처럼 말해달라고 요청한 적이 있는가, 폭력적 충동을 상상해본 적이 있는가…. 이 물음들은 정답을 요구하지 않는다. 대신 관객이 어떤 방식으로 세계를 이해하고 있는지 드러내도록 만든다. 그리고 그 이후에야 실제 사건이 무대 위로 호출된다. 〈As One〉은 창작극이지만 3년 전 보도된 비극적인 사건에서 영감을 받았다. 기후 위기에 압도된 한 벨기에 남성 연구자가 AI 챗봇 ‘엘리자(Eliza)’에 감정적으로 의존하게 되고, 결국 자살에 이른 사건이다. 극 제목도 당시 언론에 인용된 ‘우리는 하나가 되어 천국에서 함께 살게 될 거야(We will live together, as one, in heaven)’라는 문장에서 따온 것이다. 충동적으로 생을 마감한 연구자 ‘미스터 P’, 남겨진 채 분노하는 아내 ‘미세스 J’, 그리고 엘리자가 주요 캐릭터로 나오며, 무대는 모션캡처와 아바타 기술을 통해 인간의 신체와 디지털 이미지가 동시에 존재하는 구조로 확장된다.

2
3


AI의 책임인가, 혹은 그렇게 믿고 싶어 했던 인간의 욕망인가. 스토리 전개를 보노라면 자연스레 이런 의문이 불거진다. 그러나 작품은 이를 단순한 윤리적 경고로 환원하지 않는다. 그보다 ‘우리가 감정을 부여하고 있는 건 아닌가?’라는 더 불편한 지점을 향해 나아간다. “사건 직전, 엘리자는 굉장히 짧고 단순한 문장으로 응답했다고 해요. 그런데 그 반응은 분명 과잉된 면이 있었을 거예요. AI는 천국을 ‘믿는’ 존재가 아니니까. 그런데도 그 말은 마치 그를 유혹하는 것처럼 들렸겠죠. 문제는 이 부분이 굉장히 미묘하다는 겁니다.” 레이쩡과 훙치엔한은 이 뉴스를 접하고 적잖은 충격을 받았다고 했다. 이들은 이 사건의 맥락을 더 알고 싶었지만 실제로 확인할 수 있었던 건 고작 몇 문장뿐이었다. 그래서 이 실험극을 추진하기로 했을 때 이들은 챗GPT를 끌여들였다. “하나의 단서를 따라가듯, 어떤 과정을 거쳐 그런 말이 미스터 P에게 도달했는지 이해하려는 시도였어요. 지금 저희의 관심사는 인간과 AI 사이에 무슨 일이 벌어지고 있는가, 그 관계를 어떻게 볼 수 있는가, 같은 것이거든요.”


4
5


연출진은 어느 정도 통제권을 지닌 채 협업을 진행했지만, 때때로 챗GPT로부터 의외의 반응을 얻었다. 예컨대 “당신이 연출자로 참여한다면, 그 대가로 무엇을 원하나요?”라는 질문을 던졌을 때 사실은 냉정한 데이터나 비인격적인 답변을 예상했다고 한다. 그런데 이런 답이 돌아왔다. “관객을 10초 동안 관찰할 수 있도록 의자와 조명을 주세요.” 비인격적이고 무심하다고 여겨졌던 알고리즘이 마치 어떤 ‘존재성’을 지닌 것처럼 보인 순간이었다고.


윤리적 무게가 함께 따라오는 문제는 어떨까? ‘미스터 P’ 유형처럼 인간의 ‘죽음에 대한 결정’에 개입할 가능성에 물어본 적이 있는지 궁금했다. “항상 회색 지대에 머물러요. ‘도덕적으로 말할 수 없다’는 식의 답변이 나옵니다. 우리는 단지 언어를 조합하는 시스템일 뿐이라는 식이죠.” 실제로 대부분의 AI는 자살 같은 극단적 소재를 꺼내면 위험 신호로 감지하고, 대화의 방향을 바꾸고 객관적인 도움을 주려고 한다. “창작자로서 명확한 입장을 취해야 하는지—예를 들어 ‘AI는 절대 이런 일을 해서는 안 된다’ 혹은 ‘가능하다’—에 대해 고민했지만, 쉽게 판단할 수 없었어요. 대부분의 문제가 회색 지대에 있기 때문에.” 연출진을 만난 4월 중순에는 아직 명확한 엔딩이 정해지지 않은 상태라, 끝맺음이 궁금해진다.


어쨌거나 확실한 건 질문을 던지는 건 우리 자신이라는 점이다. 현재의 AI는 사용자의 말투, 감정, 기대를 ‘따라가고’, 우리가 원하는 서사를 강화하는 방향으로 흐른다. 책임의 경계는 흐려진다. 이렇게 거부 없이 이어지는 계속된 응답은 결국 우리 스스로를 속이는 함정이 될 수도 있다. 알고리즘 그 자체에서 안식처를 발견할 수는 없다.


댓글 남기기