Browsed by
[Tag:] AI

물리학적 사고가 어떻게 AI를 가능하게 했나: 2024 노벨상

물리학적 사고가 어떻게 AI를 가능하게 했나: 2024 노벨상

인공지능(Artificial intelligence)은 이미지 생성이나, 그럴싸해 보이는 챗봇 그 이상이다. 또한 이는 물리학에 기반하며 노벨에 버금가는 노력의 산실이기도 하다. 대부분의 사람들은 AI라고 하면 ChatGPT와 같은 챗봇이나 DALL-E 같이 이미지 생성, 또는 단백질의 중첩구조를 예측하는 AlphaFold와 같은 과학용 어플리케이션을 떠올린다. 이런 사람들 중 인공지능 시스템(Artificial Intelligence System)의 핵심에 물리학이 있을 것으로 생각하는 사람은 극소수일 것이다. 하지만 사실 인공신경망(Artificial Neural Network)이란 개념은 물리학의 세 분야 즉, Biophysics, Statistical physics, Computational physics이 융합된 연구의 결과로 처음 결실을 맺게 되었다. 대략 1980년대 이루어진 이러한 주요…

Read More Read More

향후 50년은 초지능을 가진 두뇌를 만드는 시대

향후 50년은 초지능을 가진 두뇌를 만드는 시대

몇 년전 부터 AI가 IT업계의 메인스트림으로 인식하고 있다. 이제 AI가 가져다 줄 변화에 두려움이 느껴지기도 한다. AI가 어떻게 동작하는지 기술적인 관점에서 바라보는 것도 재미 있지만 좀 더 큰 그림, 한 1km 높이에서 AI기술을 이루는 큰 블럭들을 바라볼 수 있다면 요소 기술을 접하는데 더 도움이 될 것이다. AI가 보편화 될 수록 관련 기술 생태계는 아래의 그림과 같이 구성될 것이다. 지금까지의 IT 또는 SW의 발전은 더 나은 계산기를 만드는 과정이었다고 보면 된다. 즉 더 나은 CPU와 이를 활용하는 더 나은 SW로 다양한…

Read More Read More

Transformer

Transformer

참고: The illustrated Transformer GPT는 Generative Pre-trained Transformer의 약자라고 알고 있다. 여기서 가장 중요한 역할을 하는 것이 Transformer일 것이다. 그렇다면 Transformer가 어떤 기능을 하기에 가장 중요한지 궁금증을 가지지 않을 수 없다. 논문의 포함해서 여러 자료를 살펴봐도 글자만 보이지 문맥이 보이지 않았는데 이 문서를 보고서 무릅을 탁 치게 되었다. 우선 쉬운 설명을 통해 궁금증을 해결하도록 해 준 Jay Alammar에게 감사를 드리고 나의 언어로 다시 정리해 보고자 한다. 나중에 자세하게 설명하겠지만 Transformer는 내부적으로 Attention이라는 개념을 사용한다. 이를 사용함으로써 그동안 문제로 지적됐던 느린…

Read More Read More

Generative Deep Learning

Generative Deep Learning

What is Generative Modeling? Generative modeling is a branch of machine learning that involves training a model to produce new data that is similar to a given dataset We can sample from this model to create novel, realistic images of horses that did not exist in the original dataset. One data point in the training data is called as observation. Each observation consists of many features. A generative model must be probabilistic rather than deterministic, because we want to be…

Read More Read More

Deep Learning: Neural Network in TensorFlow

Deep Learning: Neural Network in TensorFlow

Model Neural network and Deep learning Layer: a data processing module the kernel and bias = weights model compilation epoch model’s evaluate method backpropagation gradient of loss Why do we need gradient? MSE (Mean Squared Error) Adding nonlinearity: Beyond weighted sums

GPT-3

GPT-3

Execution Engines GPT-3 comes with four execution engines of varying sizes and capabilities: Davinci, Ada, Babbage, and Curie. Davinci is the most powerful and the Playground’s default. Ada Babbage Curie Davinci Customizing GPT-3 Fine-tuning is about tweaking the whole model so that it performs every time in the way you wish it to perform. You can use an existing dataset of any shape and size, or incrementally add data based on user feedback. OpenAI also found that each doubling of…

Read More Read More