https://www.aitimes.com/news/articleView.html?idxno=158987
애플이 6월10일 열리는 연례 개발자 회의(WWDC)에서 온디바이스 AI용 소형언어모델(sLM)을 공개할 것이라는 예측이 나왔다. 대형언어모델(LLM)은 구글이나 오픈AI와의 파트너십을 통해 해결한다는 전략에 따른 것이다.
블룸버그는 21일(현지시간) 애플이 차세대 혁신으로 온디바이스 AI를 공개할 예정이라고 보도했다.
이에 따르면 애플은 올 초 출시한 '비전 프로'와는 별도로, 증강현실(AR) 안경이나 가정용 로봇을 포함한 차세대 프로젝트를 탐색 중이다. 하지만 이보다 더 급한 것은 올해 후반에 내놓을 AI인 것으로 알려졌다.
물론 현재 애플이 구글이나 오픈AI의 LLM을 당장 따라잡기는 어렵다. 이런 상황과 이제까지 등장한 정보를 종합하면, 애플이 이번에 선보일 모델은 장치에서 구동하는 sLM일 것이라는 분석이다.
실제로 애플은 지난해 10월 매개변수 70억개(7B)와 130억개(13B)의 멀티모달 모델 '페럿'을 오픈 소스로 공개한 바 있다. 또 지난 11일에는 모바일 사용자 인터페이스(UI)에 대한 이해와 상호 작용을 향상하기 위해 특별히 개발된 모델인 ‘패럿-UI(Ferret-UI)’에 관한 논문을 발표하기도 했다.
이 때문에 이번 WWDC에서는 페럿을 기반으로 한 모바일 AI 에이전트를 선보일 것이라는 추측이다.
이 방식을 적용하면 AI의 응답 속도가 클라우드 방식의 LLM보다 훨씬 빨라지며, 사용자의 개인정보 유출 문제도 차단할 수 있다. 대신 복잡한 기능이 필요한 작업에는 클라우드 방식으로 '제미나이'나 'GPT-4'를 연결하면 된다.
이처럼 WWDC가 다가오며 애플이 공개할 내용도 윤곽을 드러내고 있다.
🔼온디바이스 AI를 위한 sLM 🔼이를 활용한 모바일 AI 에이전트 🔼구글 및 오픈AI 등과의 파트너십을 통한 외부 LLM 도입 🔼기존 앱 스토어와 흡사한 'AI 스토어' 론칭 🔼아이폰 등 제품의 기능을 강화하는 각종 AI 도구 🔼새로운 자체 실리콘 'M4' 칩 등이 발표될 것으로 보인다.
이를 위해 애플은 지난해 말부터 관련 연구 결과를 발표했으며, 여기에는 페럿 이외에도 🔼이미지를 읽고 텍스트로 설명하는 멀티모달 모델 🔼이미지를 애니메이션으로 바꾸는 AI 도구 ‘키프레이머(Keyframer)’ 🔼이미지 편집에 최적화된 ‘MGIE(MLLM-Guided Image Editing)’ 등이 포함돼 있다.
한편 그렉 조스위악 애플 글로벌 마케팅 총괄은 WWDC 일정을 공개하며 "믿을 수 없을 만큼 놀라운(Absolutely Incredible)" 행사가 될 것이라고 예고했다. 그의 발언 중 두 단어의 대문자를 합치면 ‘AI’가 된다.
댓글 영역
획득법
① NFT 발행
작성한 게시물을 NFT로 발행하면 일주일 동안 사용할 수 있습니다. (최초 1회)
② NFT 구매
다른 이용자의 NFT를 구매하면 한 달 동안 사용할 수 있습니다. (구매 시마다 갱신)
사용법
디시콘에서지갑연결시 바로 사용 가능합니다.