█ AI가 진단적 근거 제시해도 환자에 적용은 의사 책임
█ 진정한 공감 감정적 지지는 인간만이 할수 있는 능력
█ 예술가, 작가같은 창의적인 작업은 AI가 못하는 영역
█ 2026년 본격적 AI 에이전트시대 준비해야하는 시점
오늘날 인공지능(AI)의 발전이 가속화 됨에 따라 많은 분야에서 자동화의 위협을 받고 있지만, 여전히 AI가 대체할 수 없는 인간의 고유한 능력과 역할이 존재한다는 것을 의학계나 과학에서 인지하고 있다. 이러한 역할은 주로 인간의 감정, 창의성, 윤리적 판단, 그리고 사회적 상호작용과 관련이 있다. 비록 AI는 감정을 인식하고 분석할 수 있지만, 진정한 공감과 감정적 지지는 인간만이 제공할 수 있다는 것이 아직까지의 정설이다. 예를 들어, 의료 분야에서 의사와 간호사는 환자의 감정을 이해하고 그에 맞는 정서적 지원을 제공해야 한다. 이러한 능력은 AI가 쉽게 모방할 수 없는 부분이다. <성진 취재부 기자>
AI는 기존 데이터를 기반으로 결과를 생성할 수 있지만, 새로운 아이디어를 창출하는 능력은 인간 의 고유한 특성이다. 특히 예술가, 작가, 디자이너와 같은 창의적인 직업은 인간의 상상력과 독창성을 필요로 하며, 이는 AI가 대체할 수 없는 영역이다. AI는 데이터를 기반으로 결정을 내리지만, 복잡한 윤리적 문제를 해결하는 데 필요한 도덕적 판단은 인간의 몫이다. 예를 들어, 자율주행차가 사고를 피할 수 없는 상황에서 누구를 보호해야 하는 지를 결정하는 것은 단순한 알고리즘으로 해결할 수 없는 문제이다.
공감은 학습이 아니라 인간의 본능
교육과 사회적 상호작용도 마찬가지이다. 교사와 교육자는 학생들과의 상호작용을 통해 지식을 전달하고, 학생들의 감정적 및 사회적 발달을 지원한다. AI는 정보를 제공할 수 있지만, 학생들에 게 영감을 주고 동기를 부여하는 것은 인간만이 할 수 있는 고유한 일이다. 물론 AI는 특정 문제를 해결하는 데 도움을 줄 수 있지만, 복잡한 사회적 문제나 비즈니스 상황에 서의 판단은 인간의 경험과 직관이 필요하 다. 인간은 다양한 변수와 맥락을 고려하여 문제를 해결 할 수 있는 능력을 가지고 있다. 결론적으로, AI가 대체할 수 없는 인간의 일은 감정적 지능, 창의성, 윤리적 판단, 교육적 상호작용, 그리고 복잡한 문제 해결 능력과 관련이 있다.
이러한 능력들은 AI 시대에도 여전히 중요한 가치를 지니며, 인간의 고유한 역할을 강화하는 데 기여할 것이다. AI는 도구로서 인간의 작업을 보조할 수 있지만, 인간의 본질적인 특성을 대체할 수는 없다. 인천투데이는 최근 <AI대전환시대 특집>에서 ‘AI가 일을 대신할 순 있어도 관계를 대신할 순 없다.’라는 기사에서 AI는 지식, 연산, 문제 해결 능력에서 인간을 앞서려 하고 있다며, 그러나 인간 존재 는 단순한 사고나 연산의 합이 아니고 인간은 관계를 맺고, 공감하며, 서로를 돌보고 치유하는 존재라고 강조했다. 기사에서 AI는 인간의 많은 기능을 대체할 수 있을 것이라며, AI 상담 프로그램, AI 돌봄 로봇, AI 심리치료 어플리케이션이 이미 등장하고 있지만, 그러나 중요한 것은 ‘기능’이 아니라 ‘존재’라고 강조했다.
AI는 위로하는 말을 출력할 수 있지만, 진심으로 함께 아파할 수는 없다. AI는 치유의 언어를 흉내 낼 수 있지만, 타인의 고통을 자신의 고통처럼 느끼지는 않는다. 치유와 돌봄은 기계적 서비스가 아니라 존재적 만남이다. 인간은 불안과 상처 속에서 관계를 통해 살아간다. 타인의 따뜻한 눈빛, 조심스러운 손길, 말없는 침묵 속에서 인간은 비로소 치유된다. 이것은 데이터 처리가 아니라, 살아 있는 존재 사이의 교감이다. 기사에서 AI가 아무리 정교해져도, 상처를 함께 견디고 회복하는 과정을 완전히 대신할 수는 없다. 특이점이 도래하더라도, 인간은 인간을 필요로 한다.또한 인간은 자유를 갈망한다. 그러나 자유는 외로움과 불안을 동반한다.
인간은 고립을 견디지 못하고, 서로 관계를 맺으며 공동체를 이룬다. 신경과학 연구를 보면, 인간은 ‘전두엽 미러링(Frontal lobe mirroring)’ 메커니즘을 통해 타인의 감정을 자신의 뇌에 거울처럼 비춘다. 다른 사람이 슬퍼할 때, 나도 모르게 가슴이 아픈 이유는 이 때문 이다. 다른 사람이 웃을 때, 함께 미소 짓는 이유도 여기에 있다. 공감은 학습이 아니라 본능이다. 인간은 존재 그 자체로 서로를 비추고, 이해하고, 감정을 나눈다. AI는 감정을 분석하고 모방할 수 있지만, 이 본질적 공감 회로를 가질 수 없다. AI는 ‘감정 데이터’를 처리하지만, ‘감정을 살아낸다’는 존재적 경험을 하지 않는다. 결국 인간은 관계를 통해 존재한다. 기술이 아무리 발전해도, 인간은 인간과 함께 살아야 한다고 강조했다.
기술은 기술, 인간은 인간
이미 일선 의료 현장에서 인공지능(AI) 활용도가 높아지고 있다. 판독부터 문서화, 예진까지 AI의 역할이 확장되는 가운데, ‘잘못된 결과의 책임은 누구에게 있는가’라는 본질적인 질문이 큰 이슈로 등장하고 있다. 메디칼타임즈는 최근 ‘2025년 창간기획 좌담회’를 통해 의료 현장에서 AI 기술의 ‘책임’을 중심으로, 인공지능(AI)과 인간박사(MD)의료인의 경계에서 발생할 수 있는 법적·제도적 문제를 분석했다. 이번 좌담회에는 세종병원 박진식 이사장, 서울성모병원 최준일 영상 의학과 교수, 일산 백병원 신성환 진단검사의학과 교수가 참석했다. 박진식 이사장은 영상의학 AI가 오진했을 때 법적 책임의 소재가 모호하다는 점을 지적했다.
현재 병원에서 영상 판독을 맡기는 이유 중 하나는 ‘진단 오류가 발생했을 때 책임이 누구에게 있느냐’는 문제 때문이라는 설명이다. 만약 AI가 판독한 결과에 오류가 있었고 그로 인해 환자에게 피해가 발생했다면 그 책임이 병원에 있는지, 아니면 개발사나 의사에게 있는지 모호하다는 것이다. 그는 “영상의학과 전문의는 자기가 본 영상에 대해 최종 책임을 진다. 그런데 만약 기업이 ‘이 판독은 우리가 했고, 법적 책임도 우리가 지겠다’고 하면, 의료기관은 AI를 택할 수밖에 없을 것”이라며 “결국은 법적 책임 구조가 어떻게 설계되느냐가 AI 활용의 핵심”이라고 강조했다. 최준일 교수 역시 법적 책임 문제가 AI 안착 여부를 가를 중요한 변수라고 봤다. 그는 영상 검사의 결과물은 단순한 수치나 표식이 아니라, 최종적인 진단 소견서로 이어지는 중요한 판단 과정이 라고 설명했다.
AI가 판독을 대신한다면, 잘못된 결과를 그대로 수용한 의료인의 책임도 배제할 수 없다는 우려다. 그는 “AI의 판독 결과를 검토하고 수정할 수 있는 전문가는 결국 해당 분야의 의사 뿐이다. 그 해석에 따라 진단이나 치료 방향이 달라져 최종 판단은 반드시 영상의학과 전문의가 해야 한다”며 “단순히 표시된 위치만 보고 결정하는 게 아니라, 전체 병력, 촬영 조건, 환자 상태 등을 종합적으로 고려하는 과정이 필요한데 이런 부분은 아직 AI가 따라올 수 없다”고 말했다. 서울성모병원 최준일 교수는 AI로 인한 오류를 우려하며 법적 책임 문제가 AI 안착 여부를 가를 중요한 변수라고 봤다. 하지만 AI 사용이 오히려 오류를 유발할 가능성이 있다는 우려도 있다. AI 결과에 익숙하지 않은 일반의나 비전문가가 AI 판단을 그대로 수용하면, 오류 발생 가능성이 더 커지는 경향도 있다는 이유에서다. 이런 문제를 방지하기 위해선 전문가가 AI를 검토하는 구조가 필수 적이라는 판단이다.
실제 관련 연구에 따르면 AI가 일부러 틀린 정보를 주도록 설정한 후 의료진에게 판독을 맡겼을 때, 오히려 정답률이 더 떨어지는 경향이 나타났다는 설명이다. 최 교수는 “이런 결과를 보면, AI의 판단은 결코 만능이 아니며, 해석은 언제나 전문가의 몫으로 남는다는 사실을 다시 한번 확인할 수 있다”며 “AI가 아무리 정교하게 결과를 도출해도 그 데이 터가 정확한지, 진단에 적절한지, 실제 임상 맥락에서 의미가 있는지는 결국 사람(인간 박사)이 판단해야 한다”고 강조했다.
이어 “특히 잘못된 정보를 입력하거나 오류가 있는 데이터를 기반으로 판단하면, 오히려 AI의 결과를 신뢰한 비전문가가 더 큰 오류를 범할 수 있다”며 “의료 현장에서는 AI를 ‘도움 도구’로 보되, 절대적인 판단 주체로 두어서는 안 된다”고 강조했다. 신성환 교수 역시 AI는 대규모 데이터 기반에서 학습된 결과를 보여줄 뿐, 환자 개별 상황에 맞춘 맥락적 판단은 여전히 어렵다고 동조했다.
의료는 단순히 수치나 이미지를 넘어서 환자의 상태, 병력, 문맥 등 복합적인 요소를 고려해야 하는 행위라는 설명이다. 신 교수는 “결국 AI가 제시하는 예측 결과를 얼마나 신뢰하고 어떻게 반영할 것인지 판단 하는 것은 의료인의 영역이다”라며 “AI가 어떤 진단적 근거를 내놓더라도, 그것을 환자에게 적용할지 말지는 최종적으로 사람이 결정해야 한다. 그 결정에는 항상 리스크가 따르기 때문에, 책임도 당연히 인간이 질 수밖에 없다”고 말했다. 이어 “특히 부작용이 생길 가능성이 있는 약이나 치료처럼 민감한 상황에서는, AI가 아니라 경험 있는 의사의 임상적 판단이 핵심이 될 수밖에 없다”며 “이 때문에 기술이 아무리 발전해도, 의료 분야에서 최종 판단자는 사람이어야 한다는 원칙은 변하지 않을 것이라고 생각한다”고 전했다. 의료 분야에서 최종 판단자는 사람이어야 한다는 원칙은 변하지 않을 것이라는 것이다.
누가 판독했느냐에 따라 책임 가려
이제 2026년이 되면 AI 기술은 단순한 ‘채팅형 비서’를 넘어 사용자의 의도를 이해하고 복잡한 업무를 스스로 수행하는 AI 에이전트(AI Agent) 시대로 진입하는데, 이에 대한 이해와 준비를 해야한다. AI 에이전트 시대의 사례로 소개하면 사용자가 “가장 저렴한 파리행 비행기표를 예약해줘”라고 명령하면, AI가 직접 웹사이트를 탐색하고 가격을 비교하여 결제 직전 단계까지 업무를 완결한다. 현재 OpenAI와 Anthropic 등 주요 기업들이 이러한 ‘컴퓨터 사용 능력(Computer Use)’을 갖춘 모델을 선보이고 있다. AI 에이전트 시대의 주요 특징은 텍스트뿐만 아니라 음성, 이미지, 실시간 화면 상황을 동시에 인식하여 인간과 흡사한 방식으로 소통한다. 개인에 대한 맞춤형도 최적화로 사용자의 일정, 선호도, 업무 습관을 학습하여 개인에게 최적화된 워크플로우를 제안한다.
특히 산업별 변화에서 업무 자동화가 일어난다. 단순 반복 업무를 넘어 데이터 분석, 보고서 작성, 코드 생성 및 배포까지 AI 에이전트가 담당하며 생산성이 극대화된다. 고객 서비스에서도 정해진 답변만 하던 챗봇이 고객의 문제를 직접 해결(환불 처리, 예약 변경 등)하는 해결사로 진화한다. 일상 생활에서도 스마트폰 내의 에이전트가 앱 간의 경계를 허물고 사용자의 일상을 관리하는 ‘AI OS’ 환경이 구축되는 것이다. 이처럼 2026년에 AI 에이전트가 일상과 업무 전반에 깊숙이 침투하면서, 인간의 역할은 ‘실행자’에서 ‘지휘자(Orchestrator)’이자 ‘검증자(Validator)’로 이동하고 있다. 과거에는 데이터를 수집하고 보고서를 작성하는 ‘수행’ 과정에 많은 시간을 썼다면, 이제는 AI 에이전트에게 어떤 목표를 줄 것인지 결정하는 의사결정 역량이 중요해졌다.
실무 작업은 AI가 수행하고, 인간은 목표 설정(Goal Setting)과 전략적 방향성을 제시하는 것이다. AI 에이전트가 자율적으로 업무를 처리하더라도, 그 결과에 대한 최종 책임은 인간에게 있다. AI의 오류(할루시네이션)나 윤리적 편향성을 걸러내는 비판적 사고가 필수적이다. AI가 만든 결과물을 검토하고 승인하는 ‘최종 승인권자’로서의 역할이 강조된다.
물론 표준화된 업무는 AI가 더 잘 할 수 있지만, 무에서 유를 창조하거나 정답이 없는 복잡한 인간 관계, 감정적 공감이 필요한 문제는 여전히 인간의 영역이다. 인간은 고도의 창의적 발상, 복합적인 이해 관계 조정, 공감 기반의 소통에 집중하게 된다. 기술이 무엇을 ‘할 수 있는지’는 AI가 결정할 수 있지만, 그것을 ‘해야 하는지’는 인간의 윤리적 판단에 달려 있다. AI 에이전트의 행동 반경과 도덕적 기준을 설정하는 것은 오직 인간만이 할 수 있는 영역이다. 결론적으로, 인간은 더 이상 단순 반복적인 기능에 머물지 않고, AI라는 강력한 도구를 활용해 더 높은 수준의 가치를 창출하는 ‘전략적 설계자’로 진화하게 된다.




