Korean Crypto

#1
FOUR1 35988%
#2
Orgo 60.92%
#3
CallofMeme 114%
#4
Heurist 29.16%
#5
PURGY PENGOON 16.92%
#6
unstable coin 17.5%
#7
Raiin -28.78%
#8
Ghiblification 40.94%
#9
Jerry The Turtle By Matt 31.7%
#10
MEMELESS COIN 35.48%
2025-06-23 00:43:04 | Crypto News | 소식
Lummis’ RISE Act is ‘timely and needed’ but short on details

루미스 상원의원의 RISE 법안은 좋은 시작일 수 있지만, AI 개발자들을 보호하는 한편 의사, 변호사, 엔지니어들에게는 너무 많은 것을 요구하는 것은 아닐까요?

민사 책임법은 만찬 자리에서 화제가 되는 주제는 아니지만, 인공지능과 같은 신기술의 발전 방식에 막대한 영향을 미칠 수 있습니다.

책임 규정이 제대로 마련되지 않으면 기업가(이 경우 AI 개발자)를 불필요한 법적 위험에 노출시켜 미래 혁신에 걸림돌이 될 수 있습니다. 지난주 2025년 책임 있는 혁신 및 안전한 전문성(RISE) 법안을 발의한 신시아 루미스 미국 상원의원의 주장입니다.

이 법안은 AI 개발자가 민사 소송에서 소송을 당하지 않도록 보호하여 의사, 변호사, 엔지니어 및 기타 전문가들이 "AI에 의존하기 전에 AI가 무엇을 할 수 있고 무엇을 할 수 없는지 이해할 수 있도록" 하는 것을 목표로 합니다.

코인텔레그래프가 접촉한 소식통들의 RISE 법안에 대한 초기 반응은 대부분 긍정적이었지만, 일부는 법안의 제한된 적용 범위, 투명성 기준의 미비점, AI 개발자에게 제공하는 책임 면제 조항에 대한 의문을 제기했습니다.

대부분의 사람들은 RISE 법안을 완성된 문서가 아닌 진행 중인 작업으로 평가했습니다.

RISE 법은 AI 개발자들에게 "무조건적인 혜택"일까요?
시러큐스 대학교 맥스웰 시민권 및 공공정책대학원의 하미드 에크비아 교수는 루미스 법안이 "시의적절하고 필요한" 법안이라고 말했습니다. (루미스 교수는 이 법안을 "전문가급 AI에 대한 미국 최초의 목표 책임 개혁 법안"이라고 불렀습니다.)

하지만 에크비아 교수는 코인텔레그래프와의 인터뷰에서 이 법안이 AI 개발자들에게 지나치게 유리하게 작용한다고 지적했습니다. RISE 법은 전문가들이 사용하기로 선택한 AI 도구에 대해 정보에 입각한 결정을 내릴 수 있도록 모델 사양을 공개하도록 요구하지만,

"이 법안은 위험 부담의 대부분을 '학식 있는 전문가'에게 전가하고, 개발자에게는 기술 사양(모델 카드 및 사양)의 형태로만 '투명성'을 요구하며, 그 외에는 광범위한 면책권을 제공합니다."
당연히 일부에서는 루미스 법안을 AI 기업들에게 "무조건적인 혜택"으로 여겼습니다. 스스로를 "중도좌파 정치 공동체"라고 칭하는 민주 지하 운동(Democratic Underground)은 한 포럼에서 "AI 기업들은 도구의 오류로 소송당하는 것을 원치 않으며, 이 법안이 통과된다면 그러한 목표를 달성할 수 있을 것"이라고 밝혔습니다.

모두가 동의하는 것은 아닙니다. 십케비치 변호사 사무실의 펠릭스 십케비치 대표는 코인텔레그래프와의 인터뷰에서 "이 법안을 AI 기업에 대한 '공짜'라고까지 부르지는 않을 것"이라고 말했습니다.

십케비치 변호사는 RISE 법안에 제안된 면책 조항은 대규모 언어 모델의 예측 불가능한 동작에 대한 개발자의 엄격한 책임으로부터 개발자를 보호하기 위한 것으로 보이며, 특히 과실이나 해를 가할 의도가 없는 경우 더욱 그렇다고 설명했습니다. 법적 관점에서 이는 합리적인 접근 방식입니다. 그는 다음과 같이 덧붙였습니다.

"어떤 형태의 보호도 없다면, 개발자들은 실질적으로 통제할 수 없는 출력에 대해 무제한적인 노출에 직면할 수 있습니다."
제안된 법안의 적용 범위는 상당히 좁습니다. 주로 전문가들이 고객이나 환자를 대하는 동안 AI 도구를 사용하는 상황에 초점을 맞추고 있습니다. 예를 들어, 재무 자문가는 투자자의 투자 전략 개발을 돕기 위해 AI 도구를 사용할 수 있으며, 영상의학과 전문의는 AI 소프트웨어 프로그램을 사용하여 엑스레이 사진을 해석할 수 있습니다.

관련: 시스템 리스크 우려 속에 상원, GENIUS 스테이블코인 법안 통과

RISE 법은 AI 개발자와 최종 사용자 사이에 전문적인 중개자가 없는 사례, 예를 들어 미성년자의 디지털 도우미로 챗봇을 사용하는 사례는 다루지 않습니다.

최근 플로리다에서 한 십 대 청소년이 AI 챗봇을 수개월 동안 사용한 후 자살하는 사건이 발생했습니다. 사망자의 유족은 해당 소프트웨어가 미성년자에게 합리적으로 안전하지 않은 방식으로 설계되었다고 주장했습니다. 에크비아는 "누가 생명 손실에 대한 책임을 져야 합니까?"라고 질문했습니다. 이러한 사례는 제안된 상원 법안에 포함되어 있지 않습니다.

"사용자, 개발자, 그리고 모든 이해관계자가 도로 교통 규칙과 법적 의무를 이해할 수 있도록 명확하고 통일된 표준이 필요합니다."라고 서리 대학교 법학대학원의 법학 및 보건 과학 교수인 라이언 애벗은 코인텔레그래프와의 인터뷰에서 말했습니다.

하지만 AI는 기술의 복잡성, 불투명성, 그리고 자율성을 고려할 때 새로운 유형의 잠재적 피해를 야기할 수 있기 때문에 쉽지 않습니다. 의학과 법학 학위를 모두 소지한 애벗 교수에 따르면, 의료 분야는 민사 책임 측면에서 특히 어려움을 겪을 것이라고 합니다.

예를 들어, 역사적으로 의사들은 의료 진단에서 AI 소프트웨어보다 우수한 성과를 보여왔지만, 최근에는 특정 의료 분야에서는 인간이 직접 참여하는 방식이 "AI가 모든 작업을 수행하는 것보다 오히려 더 나쁜 결과를 가져온다"는 증거가 나타나고 있습니다. 애벗 교수는 "이로 인해 온갖 흥미로운 책임 문제가 제기됩니다."라고 설명했습니다.

의사가 더 이상 관련 정보를 제공받지 못한 상태에서 중대한 의료 과실이 발생하면 누가 배상금을 지불해야 할까요? 의료 과실 보험으로 보상받을 수 있을까요? 아닐 수도 있습니다.

비영리 연구 기관인 AI 퓨처스 프로젝트(AI Futures Project)는 이 법안을 잠정적으로 지지했습니다(이 법안 초안 작성 당시 이 법안에 대한 논의가 있었습니다). 하지만 전무이사인 다니엘 K