해리왕자와 메건 마클이 인공지능 규제에 대한 국제적 논의에 참여했어요. 노벨상 수상자들과 함께 초지능 AI 시스템 개발 금지를 요구한 이번 성명서는 AI 안전성에 대한 전 세계적 우려를 보여주는 중요한 사건입니다.초지능 AI 개발 금지, 왜 필요할까요?인공지능 규제에 대한 이번 성명서는 미래생명연구소(FLI)가 주도했어요. 초지능 AI(ASI)는 인간의 모든 인지 능력을 뛰어넘는 시스템을 의미하는데, 아직 개발되지 않았지만 향후 10년 내 실현 가능성이 제기되고 있답니다.성명서에 따르면 초지능 AI는 다음과 같은 위험을 가져올 수 있어요:전체 인간 일자리의 대체시민 자유권 침해국가 안보 위험인류 생존 위협메타의 마크 저커버그 CEO는 올해 7월 초지능 개발이 "이제 보이기 시작했다"고 언급했지만, 일부 ..