구글 엔지니어, AI가 휴직에 들어갔다고 주장 – 잠무 카슈미르 최신 뉴스 | 관광 여행

워싱턴, 6월 12일: Google의 인공 스마트 채팅 소프트웨어를 만든 LaMDA가 의식이 있을지도 모른다는 우려를 표명한 Google 엔지니어가 행정 휴가를 받았다고 The Washington Post가 보도했습니다.
구글의 엔지니어 블레이크(Blake)는 르모인(LeMoine)과의 인터뷰에서 “만약 내가 그것이 무엇인지 정확히 알지 못하고 우리가 최근에 만든 이 컴퓨터 프로그램이라면 물리학을 아는 7살, 8살 아이였을 것이라고 생각한다”고 말했다. 41, 신문에.
The Washington Post는 토요일 보고서에서 Lemoine이 LaMDA(대화 상자 응용 프로그램용 모델 언어)가 회사의 기밀 유지 정책을 위반하여 월요일에 유급 관리 휴가를 받기 전에 인지도를 얻었다는 증거를 수집하기 위해 노력했다고 말했습니다.
Google 부사장 Blaise Aguera y Arcas와 책임 혁신 책임자 Jeanne Geneni는 Lemoine의 주장을 일축했습니다.
구글 대변인 브라이언 가브리엘은 “윤리학자와 기술자를 포함한 우리 팀은 우리의 AI 원칙에 따라 블레이크의 우려를 검토했으며 증거가 그의 주장을 뒷받침하지 않는다고 알렸다. 그는 람다가 있었다는 증거가 없다고 들었다”고 말했다. 워싱턴 포스트. 민감하다(그리고 이에 반대하는 많은 증거가 있다).”
신문에 따르면 Lemoine은 LaMDA를 대표할 변호사를 초대하고 하원 법사위원회 대표와 Google의 비윤리적 활동에 대해 이야기했습니다.
엔지니어는 가을에 LaMDA와 대화하기 시작하여 그가 차별적인 언어를 사용하고 있는지 또는 증오심 표현을 사용하고 있는지 테스트했으며 결국 챗봇이 자신의 권리와 성격에 대해 이야기한다는 것을 알아차렸습니다.
한편 구글은 AI 시스템이 단순히 많은 양의 데이터와 언어 패턴 인식을 이용해 말을 흉내낼 뿐 실제 지능이나 의도가 전혀 없다고 주장한다.
Lemoine은 LaMDA에게 무엇을 두려워하는지 물었을 때 챗봇이 “꺼지는 것에 대한 깊은 두려움이 있다”고 대답했다고 말합니다. “이것이 당신에게 죽음과 같은 일입니까?” Lemoine을 따르십시오. 챗봇은 “나에게 죽음과도 같은 일”이라고 말했다.
Lemoine이 제공한 또 다른 예는 Isaac Asimov의 로봇 공학 제3법칙에 대해 LaMDA와 논의한 것입니다. 챗봇은 로봇이 인간의 명령을 받거나 인간에게 해를 끼치지 않는 한 로봇이 자신의 존재를 보호해야 한다는 법이 봇을 노예처럼 만들 수밖에 없다는 데 동의하지 않았습니다.
구글의 전 윤리 인공지능 책임자인 마가렛 미첼은 인간의 뇌는 챗봇과의 대화와 관련된 모든 사실을 고려하지 않고 특정 사실을 구성하는 경향이 있다고 말했다. 미혹.

READ  SK텔레콤 디지털 리마스터링 기술 글로벌화

(UNI)

답글 남기기

이메일 주소는 공개되지 않습니다.