티스토리 뷰

인공지능의 위험성
로봇과 인공지능의 위험성이 위험사회에서 의미하는 위험 책 임과 위험을 부여할 만큼 위험한지 검사해볼 필요가 있으며 즉 지금의 AI는 일상의 위험 요소가 어느 정도인지 나아가 기존과 비교해 손해가 늘어난 것인지의 문제이고 물론 완벽한 자율성을 갖춘 인공지능에 의한 사람 지배와 방대한 학살의 문제는 비교할 수 못할 정도의 피해를 야기하며 하지만 그것이 실현될 수 있는가의 문제를 반영하고 특정 상황이 아닌 항상 존재하는 위험인가를 파악해보면 그 정도에 이르지는 못하며 즉 완벽한 자율성을 갖춘 기계는 아직 요원한 상황이며 자율형 무기체계에 대한 방대 학살 등의 문제는 정치적 목적 군사적 목적이라는 특수한 과정에서 발생할 수 있으며 여기서 다시 새로운 보안의 문제가 생기게 된다.
자율주행차 돌봄 로봇 자율형 스마트 홈 수술 로봇 드론 등이 해킹되는 경우 충족한 위험성을 갖추지 않느냐의 문제이며 그러나 이는 열거한 위의 기기들이 인간이 아니라 자동으로 행위한다는 점이 변하질 뿐이지 본질에 관한 위험성은 그 기기로부터 나타나고 그동안 수술 로봇을 인간이 다뤄왔다면 이제는 로봇이 자동으로 행할 뿐이고 드론을 인간이 조종했다면 드론이 자동으로 비행하는 것뿐이며 그들에 의한 드론의 충돌 악의적 목적의 촬영 잘못된 판단 등의 문제들은 그 프로그램과 기기로부터 발생하는 것이며 따라서 인공지능이 활용된다는 것은 마치 기존의 기계에 소프트웨어가 삽입되어 신기능을 창출하듯이 기존의 기계를 AI가 대체하는 것뿐이다.
이에 대해서는 논라운 일이 있었으며 AI의 미래를 고려하면 마땅히 그 위험은 어떤 기술보다 높고 지금의 기술 수준에서도 통제 가능성과 예측 가능성 등을 고려하자면 위험 책임의 원리를 활용하는 것이 가장 적합하며 인공지능을 적용하는 것만으로 위험을 내포하고 있다는 과정이 인정될 수 있으며 다만 현재 상황에서 인공지능의 위험과 이로부터 예측되는 손해는 옛날 것보다 크게 달라지지 않는데 즉 간단히 위험이 얼마나 존재한다는 원인으로만 책임을 부여할 수 없다는 것이며 이 영역을 넘어서 초월하는 위험이 상상 확인되는 등 표시돼 더라도 그 위험을 어떻게 분배하여 책임을 분류할 것인지의 문제는 다시 걱정해봐야 할 문제인 것이며 위험을 야기한 자는 보안 통제를 담당하는 인공지능이 될 것이라면 이를 디자이너가 미친 위험 그 위험이 생긴 것을 상상했었던 분량은 여전히 설명되지 못하며 그렇다면 디자이너 보안 서비스 담당자 이용자와 관리자 등의 관계 정립 및 요원한 문제로 남을 것이며 이어서 위험 책임의 활용은 아직 섣부른 것으로 판단되고 있으며 앞에서 바와 같이 살펴보면 인공지능 규제 문제는 초기에는 전통적인 불법행위법의 틀에서 접근되어왔지만 점차 그 규율의 한계가 노정됨에 따라 배상책임 구조로 변화하고 있음을 알 수 있으며 각 책임 이론의 가장 중요한 요소는 분석 결과와 책임 구조에 인과 관계되고 있으며 인공지능 및 인공지능 보안 서비스에서 인공지능 기술 자체가 갖는 알고리즘의 불투명성 및 예측 불가능성으로 인해 원인과 결과 사이의 관계를 명확히 도출해 낼 수 없기 때문이며 현재의 대표적인 책임 구조 정립을 위한 인과관계의 판단에는 상당인과 관계설이 적용되고 있다.
위험과 관련 설
상당인과관계설이란 인과관계를 판단함에 있어 자연과학이나 사실적 접근이 아닌 규범적 접근방식을 취함으로써 가치 판단을 통해 책임 귀속의 결과를 도출하고자 하는 것이며 즉 판단 대상과 환경의 정황과 조건 심리 상태 제삼자의 인식 통상적인 국민의 의식 등 규범적으로 중요한 요소들을 검토하고 인과관계의 존부를 판단하는 방식이며 결국은 인공지능과 책임에 관한 문제는 개별 상황에 따라 구체적으로 판단할 수밖에 없다는 점이며 그렇지만 기존의 책임 이론 가운데 AI에 관련해 현실적으로 적용될 수 있을 것으로 보이는 것은 AI 소프트웨어가 하드웨어에 탑재되어 적용되는 관점에서 사고가 일어나는 경우의 공작물 책임 또는 제조물 책임이 해당하며 관념적으로 활용할 수 있는 구조는 위험 책임론 등을 통해 귀납되는 무과실 책임주의라고 볼 수 있으며 그러나 이러한 과정에도 단순히 위험 책임에 따르면 AI에 위험이 존재한다고 보기 복잡하다는 점 이익을 취하는 타인에게 책임을 부여하기 위한 보상 책임의 원리에 대해서도 AI 적용 본연의 목적이 변상책임이 이용되는 특정 수혜 범위랑 부합되지 못한다는 것 등의 문제가 있으며 무엇보다 복잡한 점은 다시 한번 말하지만 방대한 이해관계자가 얽힌 상황에서 결과 및 원인 가운데의 관계를 파악할 수 없고 이 일로 인해 책임 구 조의 분배는 요원해질 수밖에 없다는 것이며 결국은 현재 법체계에 서의 책임 구조는 AI의 행위 결과에 정확한 답을 던질 수 없고 법안 제도로 과제 불과하다는 점은 그 상위 규칙으로 살펴봐야 한다는 결과로 귀결되며 이 모든 과제가 특정 주체의 행위로부터 일어나는 손해와 그에 알맞은 책임으로 개척되고 있기 때문이며 이 점에서 한걸음만 더 넘어가면 단순히 책임 본래의 원리인 피해나 응보의 전보 등에서 벗어나 방지라는 관념에서 접근할 필요가 있다.
※참조 문헌 : 중국 무인차 산업의 문제점과 활성화 방안에 관한 연구(스친 2019)
'자동차' 카테고리의 다른 글
| 중국의 무인자동차 산업과 시장의 미래 (0) | 2021.12.18 |
|---|---|
| 중국의 무인자동차 현황 (0) | 2021.12.07 |
| 전기차동차와 법률 (0) | 2021.11.22 |
| 전기차와 AI기술력 과의 관계 (0) | 2021.11.19 |
| 전기차와 딥러닝 구조와 역할 (0) | 2021.11.13 |
