삼성이 가우스 LLM(대형 언어 모델 ex, chatGPT) 개발했다고 언플하고 정작 갤럭시 S24에선 로컬로 LLM 아무것도 못 돌리는 동안
아이폰에선 이미 LLM을 돌리는 앱 까지 나옴
진짜 메타에서 만든 LLaMA 2 를 스마트폰에서 로컬로 돌리는것임
이거말고 그냥 표준에만 맞는 모델이면 Phi-2, Cerebras, Orca 등 어지간한건 다 돌릴 수 있음
안드폰에서 느려 터지게 돌아가는거랑 다르게 제대로 GPU까지 가속함
애초에 애플이 온디바이스 인공지능 시대에 훨씬 대비가 잘 되어 있음
개발 툴체인이나 칩셋단에서 실제로 인공신경망을 제대로 가속하도록 기반이 착실히 다져진 상태라서
저렇게 AI 연구자들이 지금 핫한 LLM들을 아이폰에서 그대로 돌려볼 수 있는것임
저거 말고도 오픈AI Whisper 같은 고성능 음성인식 모델도 아이폰에선 매우 빠른 속도로 구동 가능하고 AppStore에 이미 앱들도 쏟아지는중
애플은 CoreML 프레임워크로 빠르게 가속되는 SDXL도 공개함
스테이블 디퓨전 같은 이미지 생성 모델을 아이폰에서 직접 구동하는 앱들도 출시된지 1년 넘음
다른 기업들은 이제 와서 LLM을 하느니 SD를 하느니 어쩌고 있을때
애플은 이미 데스크탑에서나 돌리는 모델들을 그대로 돌릴 개발 환경을 착실히 다져놨고 서드파티 개발자, AI 연구자들이 너도나도 나서서 아이폰용 앱을 만드는 상황임
애플 자체적으로도 Ajax라는 LLM모델을 만드는 중이고 얼마전엔 오픈소스로 MLX라는 아이폰과 맥 칩의 통합 메모리 아키텍쳐를 십분 활용하는 프레임워크도 내놓음. 이미 넘파이보다 몇배나 빠르고 AI 연구자들 반응도 좋음 (인공신경망 구동은 대부분 행렬연산으로 이루어짐)
애플은 최대한 AI에 대해 함구하고 있는데 소속 AI 연구자들 때문에 스멀스멀 힌트들이 드러나는중
애플이 모바일 폰 중에선 매우 일찍이 NPU를 2017년에 탑재했고
CoreML, Metal, Accelerate framework 로 AI 개발환경 내실 다지는 동안 안드로이드 기업들은 언플밖에 안함
삼성은 Neural SDK 유기한지 몇년째 소식도 없고 퀄컴은 자기들 전용 SDK 안 쓰면 제대로 가속도 안되게 만들어놓은 상태임
그래서 구글이 만든 NNAPI표준은 자기들 끼리도 안 지켜서 텐서나 디멘시티 아니면 정상적으로 NPU가속이 안 되는 상황까지 벌어짐
애플은 그냥 칩셋부터 개발툴체인, OS에 이르기까지 구글이나 삼성, 퀄커 같은 경쟁자보다 이미 몇년은 앞서있어
이제 훨씬 최적화되고 강력한 자체적인 모델들을 준비중이고
오죽하면 마소 구글 인텔들이 인공지능 허브로 쓰는 허깅페이스 CTO가 애플이 2024년 온디바이스 ML을 이끌거라고 했을 정도
이게 팩트야. 다만 애플은 실제 공개하기 전까진 말을 아끼고 늘 플랜을 장기적으로 짜고 경쟁사들이 마케팅은 훨씬 열심히 하니 애플이 뒤쳐진것 처럼 보일 뿐.
20 10년대 안드로이드 제조사들이 코어 갯수 마케팅을 할때 애플은 ARM이랑 같이 64비트 명령어셋 아키텍쳐 기반 설계중이었음. PA semi 라고 짐 켈러가 부사장으로 있던 반도체 기업 사서 특허랑 인력 흡수하고 있었고.
지금도 CNBC 보도에 따르면 애플이 압도적으로 많은 AI 기업들 인수중이라고 함. 늘 멀리 보고 장기적 플랜을 짜는게 애플의 비결이다 ㅇㅇ
댓글 영역
획득법
① NFT 발행
작성한 게시물을 NFT로 발행하면 일주일 동안 사용할 수 있습니다. (최초 1회)
② NFT 구매
다른 이용자의 NFT를 구매하면 한 달 동안 사용할 수 있습니다. (구매 시마다 갱신)
사용법
디시콘에서지갑연결시 바로 사용 가능합니다.