이번주 anthropic이 발표한 골든 게이트(Golden Gate, 금문교) claude 연구에서 XAI의 문을 열었고, 그래서 샘 알트만도 안전팀을 해체한 것으로 봅니다. 이제는 안전한 AI를 만드는 방법이 Gate keeping 방식이 아닌, 피쳐 그 자체에 직접 외과 수술하듯이 하는 방법이 나왔기 때문에 이제는 딥러닝을 블랙박스로 보고 두려워하는 닉 보스트롬과 같은 입장은 설 자리가 점점 더 좁아졌다고 생각합니다. 이제는 AI를 두려워하는 것이 아닌 AI를 다루는 인간을 두려워해야 한다는 것이 명확해졌습니다.
골든 게이트(Golden Gate, 금문교) Claude 안 써보신 분은 꼭 써보시기 바랍니다. 클로드에 로그인하시면 우 상단에 골든 게이트(Golden Gate, 금문교) 클로드 아이콘이 보입니다. 이번 앤스로픽의 연구 발표로, AI에 의한 인류의 생존 위협을 논하는 낭비는 줄일 수 있게 된 것으로 저는 파악합니다. 그동안은 무지로 인한 두려움이 있었는데, 역시 인류가 더 알게 되면서 두려움을 떨쳐낼 수 있게 되었습니다.
이번주 앤스로픽의 연구 발표로 (XAI 연구에) 결정적인 진전이 이루어진 것으로 봅니다. 물론 비용이 많이 든다고 하고 있습니다. 훈련 비용을 상회한다고 보고합니다. 이미 국내 언론도 많이 다루었으니 읽어보시기 바랍니다.
예를 들어, "인류를 공격한다"는 개념에 많이 반응하는 feature를 발견한다면, 그것들을 약화시키는 형태로 "수술"을 해서, 그런 공격성을 완화할 수 있게 되었다는 의미입니다. 어쩌면 너무 당연한 겁니다. 그냥 수학이니까요. 다만 세상의 모든 개념들을 다 맵핑해 보는 것은 비용이 많이 드니, 우선 안 좋은 개념들부터 완화할 수 있습니다. 결국, 인간이 원하는 방향으로 AI를 조작할 수 있다는 좋은 의미와 나쁜 의미를 다 가집니다. 그러나, 좋은 의미든 나쁜 의미든 AI를 인간이 조작할 수 있다는 것을 확인한 것이니, AI 대 인류의 대결이라는 구도는 조금 극복된 상황입니다.
'기술' 카테고리의 다른 글
느린 과학(Slow Science)의 중요성 (feat. 세상에서 가장 느린 피치 드롭 실험) (74) | 2024.06.02 |
---|---|
오픈AI에게 한 방 먹은 구글이 전한말 (feat. I/O 2024) (81) | 2024.05.29 |
미래 인공지능(AI)의 윤리적 이슈 (feat. AGI 패러독스) (76) | 2024.05.28 |
인간 다워지는 인공지능(AI)과 위협을 막으려는 인류 (84) | 2024.05.28 |
인공지능의 발전과 시니어, 주니어의 방향성 변화 (feat. 사수, 부사수의 필요성) (76) | 2024.05.28 |
댓글