티스토리 뷰

자동차

전기차와 AI기술력 과의 관계

알 수 없는 사용자 2021. 11. 19. 17:32

 

AI 기술력

 

공공분야(의료 안전 국방 등)를 대상으로 美DARPA 프로젝트와 같이 특정 영역을 대상으로 정확한 지목을 가지고 Full Scale(핵심기술에서 응용기술까지)로 개척하는 대형 인공지능 프로젝트를 추진하여 시각‧언어지능 머신러닝 등 독자적인 인공지능 기술력을 확보할 계획이고 또한 차세대 인공지능 핵심기술의 확보를 위해 그동안 추진해온 인공지능 연구개발 챌린지 대회 인공지능 HW 분야 지원 및 인공지능 국가전략 프로젝트 등도 확대하고 특히 미래 소재 신약 등을 AI 기술과 접목 하는 AI+X(타 영역) 융합을 강화하여 광범위 혁신이 촉발되도록 할 예정이며 대학의 인공지능 강좌 미비 양성기관 취약 등으로 부족한 인공지능 인력을 인공지능에 특화된 발전형 프로그램을 통해 5000명을 양성할 계획이며 대학의 인공지능 특화 커리큘럼 교육 등을 위한 AI대학원 신설 대학 R&D센터의 인공지능 영역 지원 증대뿐만 아니라 세계기 업과의 공동 R&D 등을 통해 차세대 핵심 원천 기술을 개척할 수 있는 최고급 인재를 2022년까지 1400명 배출하며 또한 인공지능 최고 전문가 멘토링을 통한 인공지능 특화 비즈니스 모델 개발과정 운영과 인 공지능 프로젝트 수행 등을 지원하여 인공지 능을 적용한 신제품‧서비스를 창조할 수 있는 데이터 적용을 가운데로 하는 융 복합인재를 2022년까지 3천600명을 확보할 계획이며 인공지능 스타트업 중소기업 등이 인공지능 R&D에 본격적으로 적용할 수 있는 핵심 인프라를 지원할 예정이며 슈퍼컴 5호기에 인공 지능 전용 자원 할당 등을 통해 2022년까지 연간 400여 개의 기업이 컴퓨팅 파워를 적용할 수 있도록 개척 세울 것이며 또한 기업들이 요구한 학습용 데이터를 2022년까지 1.6억 건 구축하여 올해 2월부터 운영 중 인 인공지능 허브를 통해 제공하고 별 도적으로 인공지능이 언어 이해력을 올리기 위해 데이터(말뭉치)도 152.7 억 어절을 구축하여 공급하며 법적 책임은 크게 민사책임과 형사책임으로 구분되며 일반적으로 민사책임은 손해 전보 및 손실 분산 기능을 갖고 형사책임은 제재와 예방의 기능을 가진다.

 

 

즉 민사책임은 타인의 법익을 침해한 행위에 대한 행위자의 개별적 책임을 묻는 것으로 피해자에게 발생한 손해의 전보를 그 내용으로 하며 따라서 손해배상제도는 손해의 공평 타당한 부담을 기본 원리로 하며 43 그에 반해 형사책임은 사회의 법질서를 위반한 행위에 대한 책임을 묻는 것으로 행위자에 대한 공적 제재로서의 형벌을 내용으로 하며 44 또한 형사법상의 책임이란 규범이 요구하는 합법을 결의하 고 이에 걸맞게 행동할 수 있었음에도 불구하고 불법을 결의하고 위법행위를 저질렀다는 것에 대해 행위자에게 가해지는 비난 가능성을 의미하며 45 따라서 형사책임에는 위법성의 인식이 요구되며 고의가 있는 경우 처벌하는 것이 원칙이고 과실 범은 예외적으로 처벌하며 철저한 자기 책임의 원리로 타인의 잘못에 대해 책임지지 않는 것이 원칙이며 이에 반해 민사책임은 위법성의 인식을 요하지 않고 따라서 고의뿐만 아니라 과실이 있는 경우에도 원칙적으로 손해배상 책임을 부여하며 타인의 행 위에 의해 손해가 발생하였더라도 일정 범위 내에서 책임을 질 수 있으며 유추해석의 관점에서도 형사책임은 죄형법정주의에 따라 엄격한 제한을 받지만 민사책임은 이러한 수준의 제한이 존재하지 않고 다양한 상황과 환경에 따라 비교적 유연한 모습을 보인다.

 

 

Photo by Matt Palmer on Unsplash

자율주행 자동차의 보안

 

위험책임과 무과실책임을 인정하는 것으로 증명하고 있으며 또한 자율주행 자동차 보안 시스템이 어느 수준이었는가 당해 공격이 유관 산업 및 현장에서 일반적으로 예측 가능하고 회피할 수 있는 수준이었는가 등 보안 시스템의 과실 여부 등을 따질 수도 있겠지만 직접적인 피해를 야기한 책임의 주체는 분명히 공격이고 여기서 다시 생기는 문제는 공격자를 찾아내지 못하는 경우인데 이 경우 마치 현재 인터넷 서비스 제공자(ISP Internet Service Provider)나 포털 사업자(CP Contents Provider) 등의 책임 구조와 비슷한 방향으로 흐를 수밖에 없다.

 

 

포털 사업자 등이 영업을 행하는 과정에서 해킹으로 인해 개인정보가 유출된 경우 당해 업계에서 요구되는 기술적 관리적 보안 관련 조치 의무를 이행 하지 않았다는 점에 대한 비난 가능성으로서 주의의무를 위반한 것으로 보고 민사상 불법행위가 되는 것이며 과실책임이 주어지는 것이며 인공지능과 책임의 관계에서 문제가 되는 핵심 요소는 인공지능을 개발하고 활용시킨 개발자와 설계자조차도 AI 이야기할 결론을 예측하기 어렵다는 과정과 더불어 직접적인 결론을 이야기하는 AI는 인간이 아니므로 법안 제도적 주체가 될 수 없다는 점이다.

 

 

AI의 보안 영역 접목에 있어 연관된 당사자는 AI 보안 서비스의 디자이너 전체 보안 서비스 담당자인 경영자 해당 보안 서비스의 관리자 공격자 AI 보안 서비스 활용자 정도로 마무리될 수 있으며 당연히 구체적인 상황과 사안에 따라 달라질 것이나 상식적인 상황에서 복잡한 이해 관계자가 엮여있고 사건의 발달장애 책임을 묻는 과정에서 기존의 구조책임을 어떻게 활용하여 손해를 분배할 것인지의 과제를 검토할 필요성이 있다.

 

 

 

※참조 문헌 : 중국 무인차 산업의 문제점과 활성화 방안에 관한 연구(스친 2019)

댓글
공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
TAG
more
«   2026/05   »
1 2
3 4 5 6 7 8 9
10 11 12 13 14 15 16
17 18 19 20 21 22 23
24 25 26 27 28 29 30
31
글 보관함