인공 지능의 이번 주: 왜 OpenAI의 o1이 AI 규제 게임을 바꾸는가

안녕하세요, 여러분, TechCrunch의 정기적인 AI 뉴스레터에 오신 것을 환영합니다. 매주 수요일마다 이메일로 받고 싶다면 여기서 가입하세요.

OpenAI가 최신 주력 생성 모델인 o1을 세상에 공개한 지 며칠 만에 지나지 않았습니다. o1은 "추론" 모델로 마케팅되며, 기본적으로 질문을 해답하기 전에 "생각"하는 데 더 많은 시간을 걸리며 문제를 해결하고 자체 답변을 확인합니다.

o1이 잘 하지 못하는 것들은 많습니다 - 그리고 OpenAI 자체도 이를 인정합니다. 그러나 물리학과 수학과 같은 일부 작업에서는 o1이 OpenAI의 이전 최고 성능 모델인 GPT-4o보다 매개변수가 많지 않더라도 뛰어납니다. (인공 지능 및 기계 학습에서 "매개변수"는 일반적으로 수 십억 단위로, 모델의 문제 해결 능력과 대략적으로 대응합니다.)

이는 AI 규제에 대한 함의를 가지고 있습니다.

예를 들어 캘리포니아의 제안된 법안 SB 1047은 개발 비용이 1억 달러 이상이거나 특정 임계 값을 초과하여 컴퓨터 전원을 사용하여 훈련된 AI 모델에 안전 요구 사항을 부과합니다. 그러나 o1과 같은 모델은 훈련 컴퓨팅을 확장하는 것이 모델의 성능을 향상시키는 유일한 방법은 아님을 입증합니다.

Nvidia 연구 담당자인 Jim Fan은 X의 게시물에서 미래 AI 시스템이 최근 트렌드였던 교육 집중 아키텍처(Meta의 Llama 405B 등) 대신 작은, 더 쉬운 교육용 "추론 코어"에 의존할 수 있다고 주장했다. 최근 학술 연구에 따르면, o1과 같은 작은 모델이 더 많은 시간을 사용하여 질문에 대해 고민할 때 대형 모델보다 훨씬 우수한 성능을 발휘할 수 있다고 말했습니다.

그래서 정책 제정자들이 교육용 컴퓨팅에 AI 규제 조치를 결부한 것이 얼마나 깊고 있는지 확인할 때입니다? Cohere의 연구실 책임자 인 Sara Hooker는 TechCrunch와의 인터뷰에서 다음과 같이 말했습니다:

[o1]는 모델 크기를 위험 대리인으로 사용하는 이것의 불완전함을 어떻게 가리키는 것 같습니다. 추론이나 모델 작동에 대해 할 수 있는 모든 것을 고려하지 않습니다. 저는 현재 세계에서 본 위험을 강조하는 정책이 아니라 미래 위험에 중요한 중요성을 두는 나쁜 과학과 정책의 조합이라고 생각합니다.

그럼에도 불구하고 입법자들이 AI 법안을 뿌리에서 뽑고 처음부터 다시 시작해야 할 필요가 있는가요? 아님. 많은 법안은 AI가 그들의 시행 이후로 훨씬 진화할 것이라는 가정 하에 쉽게 개정 가능하도록 작성되었습니다. 예를 들어 캘리포니아 주의 법안은 컴퓨팅 임계 값을 다시 정의함을 주의정부 기관에 권한을 부여합니다.

계산 교육을해야 할 위험 대리인으로 다른 척도를 어떻게 찾아내야 할지 찾는 것이 미묘할 수 있습니다. AI 규제의 다른 측면들과 마찬가지로 미국과 세계의 법안이 통과에 나아가는 동안 고려해야 할 것입니다.

뉴스

이미지 크레딧: David Paul Morris/Bloomberg / 게티 이미지

o1의 첫 반응들: Max는 AI 연구원, 스타트업 설립자 및 벤처 투자가로부터 o1에 대한 초기 인상을 얻었으며 모델을 직접 테스트했습니다.

알트만이 안전위원회를 떠나다: OpenAI CEO인 Sam Altman은 o1과 같은 모델의 안전을 검토하는 회사 위원회에서 물러났습니다. 신뢰할 수 없을 것이라는 우려에 대응한 것으로 추정됩니다.

Slack이 에이전트 허브로 변신: Slack은 계열사 회사 Salesforce의 연례 Dreamforce 컨퍼런스에서 AI로 생성된 회의 요약과 이미지 생성 및 AI 기반 웹 검색 도구와의 통합 등 새로운 기능을 발표했습니다.

Google이 AI 이미지를 표시하기 시작합니다: Google은 검색 결과에서 AI로 생성 된 이미지를 명확하게 표시하도록 Google 검색을 변경할 계획이라고합니다.

Mistral이 무료 계층을 시작합니다: 프랑스 AI 스타트업 Mistral은 개발자들이 스타트업의 AI 모델을 미세 조정하고 테스트 응용 프로그램을 빌드할 수있는 새로운 무료 계층을 시작했습니다.

Snap이 비디오 생성기를 시작합니다: Snapchat은 화요일에 연례 Snap 파트너 토론에서 AI 비디오 생성 도구를 소개합니다. 이 도구를 사용하면 일부 크리에이터가 텍스트 프롬프트 및 곧 이미지 프롬프트에서 AI 비디오를 생성할 수 있습니다.

인텔이 주요 칩 계약 체결: 인텔은 인텔의 18A 칩 제조 공정을 사용하여 AWS와 함께 AI 칩을 공동 개발할 계획이라고합니다. 회사는 이 거래를 "멀티 년간 수십억 달러 규모의 프레임 워크"로 설명했으며 추가 칩 디자인을 포함 할 수도 있습니다.

오프라의 AI 특집: 오프라 윈프리는 OpenAI의 Sam Altman, 마이크로소프트의 빌 게이츠, 테크 인플루언서 Marques Brownlee 및 현 FBI 이사 크리스토퍼 레이 등을 게스트로 한 AI에 대한 특집을 방송했습니다.

주간 연구 논문

우리는 AI가 설득적 일 수 있다는 것을 알고 있지만, 그것이 의심의 굴뚝 속에 빠진 사람을 찾아낼 수 있을까요? 그렇지만 그 자체로는 아닙니다. MIT와 콘롤의 Costello et al.이 개발한 새로운 모델은 이러한 주장을 제기한 사람들에게 저항하는 반론 증거를 인내심 있고 차분하게 끝없이 제공하는 챗봇과 대화하는 실험을 통해 최소한 몇 달간 지속되는 거짓 음모에 대한 믿음을 20% 감소시키는 데 성공했습니다.

실험에서 음모와 관련된 주장을 믿는 사람들과 (예: "9/11은 내부적인 일했다") 챗봇과 대화하는 것은 이러한 주장이 지속되는 20%의 감소로 이어졌습니다. 이런 것들을 측정할 수있는 한, 둘로부터 두달 후. 다음은 진행 중인 대화 중 하나의 예시입니다:

파충류 및 심층 국가 음모에 깊이 파묻힌 사람들이 이러한 이론을 찾거나 믿을 가능성이 낮다는 것은 확실합니다. 그러나 이 접근 방식은 청소년이 '젯 연료가 강철 보물을 녹일 수 있습니까?"를 검색 할 때와 같이 사람의 첫 번째 경험 단계에서 사용되면 효과적일 수 있습니다. 곧 사고적인 것을 경험합니다.

주간 모델

모델은 아니지만 모델과 관련이 있습니다. 마이크로소프트의 연구원들은 이번 주에 AI 벤치마크 인 '유레카'를 발표했습니다. 이 벤치마크는 (그들의 말로는) "모델 평가를 개방적이고 투명하게 확대하기 위한 것"입니다.

AI 벤치마크는 마구잡이 같습니다. 그렇지만 유레카가 다른 점은 무엇입니까? 연구원들은 실제로 유레카 - 실제로 기존 벤치마크 모음입니다 -에서 대개의 능력을 테스트하기 위해 "가장 능숙한 모델에게도 도전적인 작업"을 선택했다고 말했습니다. 구체적으로, 유레카는 시각-공간 탐색 능력과 같은 AI 벤치마크에서 종종 무시되는 능력을 테스트합니다.

연구원들은 유레카에서 시스템을 테스트했고, 이 중에서 Anthropic의 Claude, OpenAI의 GPT-4o 및 Meta의 Llama를 포함했습니다.연구원들은 하나의 모델이 유레카의 모든 테스트에서 잘 채점되는 경우가 없었으며, 이는 "계속되는 혁신"과 "대상 지향적 개선"의 중요성을 강조한다고 연구원들은 말했습니다.

잡다한 정보

프로 페셔널 배우들에게 이익을 주는 캘리포니아는 AB 2602 및 AB 1836이라는 두 법률을 통과시켰으며 AI 디지털 복제본의 사용을 제한합니다.

이 법안은 퍼포먼스 연맹인 SAG-AFTRA가 후원한데 이쓴 먼용으로 연관된 디지털 복제본 (예: 복제 된 목소리 또는 이미지)를 사용하는 회사들이 복제의 의도 된 사용에 대해 "합리적으로 구체적인" 설명을하고 퍼포먼스의 법률 자문 또는 노동 조합과 협상해야 함을 요구합니다. 또한 엔터테인먼트 고용주가 사망 한 연기자의 자산 동의를 얻기 전에 그 사람의 디지털 복제본을 사용해야합니다.

홀리우드 리포터는 보도에서 SAG-AFTRA가 지난 해 스튜디오와 주요 스트리밍 플랫폼과의 118일간의 파업에서 싸움을 펼친 사알 그 제안하는 개념을 법안화했다는 점을 노미합니다. 캘리포니아는 테네시 이주 후 디지털 배우와 관련된 디지털 넝릭을 사용하는 데 사용 되는 제한을 부과하는 두 번째 주 개이며 SAG-AFTRA도 테네시 메모리 전력을 컴을 이용해 왔습니다.