문서 검색

로컬 지식 베이스를 검색한 뒤, 정확한 주제 경로를 열어 없는 문서를 새로 작성할 수 있습니다.

유의사항

본 서비스가 제공하는 내용 및 자료가 사실임을 보증하지 않습니다. 시스템은 언제나 실수를 할 수 있습니다. 중요한 의사결정 및 법리적 해석, 금전적 의사결정에 사용하지 마십시오.

검색 결과
"멀티모달 학습"에 대한 결과 123
정확히 일치하는 문서가 없습니다.
이 주제의 표준 경로를 열면 시스템이 먼저 생성 타당성을 검토하고, 필요하면 더 적절한 위키 제목을 정한 뒤 새 한국어 문서를 초안 작성합니다.
"멀티모달 학습" 생성

멀티모달 인공지능

멀티모달 인공지능(Multimodal AI)은 텍스트, 이미지, 오디오, 비디오 등 여러 유형의 데이터를 단일 시스템 내에서 결합하여 처리하고 정보를 생성하는 기술이다. 단일 양식의 데이터만을 처리하던 기존 인공지능 모델과 달리, 다양한 소스의 정보를 동시에 분석하고 통합함으로써 실제 세계의 복합적인 상황을 더 정확하게 추론하고 반응한다. 이는 기계가 인간처럼 시각, 청각 등 다양한 감각…
조회수 5

10조 파라미터 모델

10조 파라미터 모델은 인공지능의 지능을 결정하는 매개변수(Parameter)의 총합이 10조 개에 이르는 초거대 모델을 의미한다. 2020년대 중반 기술 기업들이 1조 파라미터 규모의 모델을 잇달아 공개함에 따라, 10조 규모는 인공지능 성능 고도화의 다음 단계이자 인간 수준의 추론 능력을 갖추기 위한 기술적 목표로 평가받는다. 이러한 모델은 방대한 데이터를 학습하여 텍스트, 이미지, 비…
조회수 9

챗GPT

챗GPT(ChatGPT)는 미국의 인공지능 연구소 오픈AI(OpenAI)가 개발하여 2022년 11월 30일에 출시한 생성형 인공지능 챗봇이다. 대형 언어 모델(LLM)과 멀티모달 모델을 기반으로 하며, 사용자와의 자연스러운 대화를 통해 질문 답변, 아이디어 탐색, 코딩 지원 등 다양한 생산성 작업을 수행한다.
조회수 4

생성형 인공지능

생성형 인공지능(Generative AI)은 기존 데이터의 패턴과 구조를 학습하여 텍스트, 이미지, 오디오, 소프트웨어 코드 등 새로운 콘텐츠를 생성할 수 있는 인공지능 기술이다. 사용자가 입력한 프롬프트(Prompt)라 불리는 지시문을 기반으로 결과물을 도출하며, 딥 러닝 모델을 통해 방대한 데이터 속의 관계를 파악하여 독창적인 응답을 생성하는 것이 특징이다.
조회수 5

범용인공지능

범용인공지능(Artificial General Intelligence, AGI)은 인공지능(AI) 시스템이 모든 작업에서 인간의 인지 능력을 능가하거나 그와 동등한 수준을 발휘할 수 있다는 가설에 기반한 머신러닝 개발의 한 단계이다. 이는 인간의 지능을 기계나 소프트웨어에 인공적으로 복제하는 것을 근본적인 목표로 삼는다. 특정 분야의 문제만을 해결하는 좁은 의미의 인공지능과 달리, 다양한…
조회수 6

게이트 순환 유닛

게이트 순환 유닛(Gated Recurrent Unit, GRU)은 순환 신경망(RNN)의 한 종류로, 장단기 메모리(LSTM)의 복잡한 구조를 단순화하면서도 유사한 성능을 내도록 설계된 모델이다. 2014년 조경현 교수 등이 제안하였으며, 업데이트 게이트와 리셋 게이트를 통해 정보의 흐름을 제어함으로써 기존 RNN의 기울기 소실 문제를 완화하고 장기 의존성을 효과적으로 학습한다.
조회수 11

뚝섬한강공원

뚝섬한강공원은 서울특별시 광진구 자양동에 위치한 한강공원이다. 1940년 뚝섬유원지로 조성되었으며, 1987년 2월 3일 한강공원으로 개원하였다. 공원 내에는 수변광장, 장미정원, 자연학습장, 어린이 놀이터, 수상스포츠 시설, 인공암벽장, X게임장 등이 있으며, 길이 243m의 자벌레 형태 전시관이 있다. 사계절 내내 다양한 레저와 문화 활동이 이루어지는 서울 시민의 대표적인 휴식 공간이다.
조회수 5

인공지능

인공지능(Artificial Intelligence, AI)은 인간의 학습, 추론, 지각, 문제 해결 능력을 인공적으로 구현하려는 컴퓨터 과학의 세부 분야이다. 기계나 컴퓨터가 데이터를 통해 학습하고 패턴을 식별하여 명시적인 프로그래밍 없이도 스스로 예측하거나 결정을 내릴 수 있도록 하는 기술을 포괄한다. 현대 혁신의 엔진 역할을 하며 의료, 모빌리티, 일상 서비스 등 다양한 영역에서 활용…
조회수 9

대형언어모델

대형언어모델(LLM)은 수많은 파라미터(보통 수십억 웨이트 이상)를 보유한 인공 신경망으로 구성되는 언어 모델이다. 자기 지도 학습이나 반자기지도 학습을 사용하여 레이블링되지 않은 상당한 양의 텍스트로 훈련된다. LLM은 2018년 즈음에 모습을 드러냈으며 다양한 작업을 수행하기 위해 사용된다. 이전의 특정 작업에 특화된 지도 학습 모델의 훈련 패러다임에서 벗어나 자연어 처리 연구의 초점이…
조회수 3

Native Sparse Attention

Native Sparse Attention(NSA)은 DeepSeek-AI 연구진이 2025년에 발표한 희소 어텐션 메커니즘이다. 기존 표준 어텐션의 높은 계산 비용을 줄이기 위해 설계되었으며, 동적 계층적 희소 전략을 통해 전역 문맥 인식과 지역 정밀도를 동시에 유지한다. 하드웨어 정렬 최적화를 적용하여 실질적인 속도 향상을 달성하고, 학습 가능한 구조로 설계되어 사전 학습부터 추론까지…
조회수 1

mHC (딥러닝)

mHC(Manifold-Constrained Hyper-Connections)는 중국 AI 연구소 딥시크(DeepSeek)가 개발한 대규모 언어 모델(LLM) 학습을 위한 새로운 아키텍처 프레임워크이다. 기존 딥 트랜스포머 모델이 깊어질수록 겪는 정보 흐름 저하와 불안정성을 해결하기 위해 설계되었다. mHC는 하이퍼커넥션(Hyper-Connections) 구조에 다양체 제약(Manifold…
조회수 2

딥마인드

딥마인드(DeepMind Technologies Limited)는 알파벳의 자회사이자 영국의 인공지능(AI) 연구 개발 회사이다. 2010년 데미스 허사비스, 셰인 레그, 무스타파 술레이만이 런던에서 공동 창업하였으며, 초기 사명은 '딥마인드 테크놀로지'였다. 머신러닝과 신경과학을 기반으로 스스로 학습하는 범용 학습 알고리즘을 개발하는 것을 목표로 한다. 2014년 구글이 약 4억 달러에…
조회수 2