잠재적인 위험1 AI 개발자들의 경고 오늘은 인공지능(AI) 개발자들의 경고에 관해 이야기해보려고 합니다. 최근에 오픈AI와 딥마인드 등의 CEO를 포함한 약 350여명의 인공지능 업계 거물들이 AI의 위험성을 핵전쟁에 비유하며 대응 방안을 촉구하는 성명서를 발표했습니다. AI안전센터는 "AI로 인한 인류 멸종 위험은 핵전쟁이나 팬데믹(전염병 대유행)과 같은 사회적 위험으로 다루어져야 한다"고 강조했습니다. 이러한 성명서에는 오픈AI CEO인 샘 올트먼뿐만 아니라 구글 딥마인드의 CEO인 데미스 허사비스, 앤스로픽의 CEO인 다리오 아모데이 등 AI 업계에서 활동하는 다양한 인물들의 이름이 포함되어 있습니다. 이러한 경고는 AI에서 비롯된 중대하고 시급한 위험에 대한 논의가 점차 확대되고 있다는 사실을 보여줍니다. AI 전문가, 언론인, 정.. 2023. 5. 31. 이전 1 다음