[인공지능] 쉽게 설명해 드립니다.

2023. 3. 21. 23:27카테고리 없음

반응형

털보님들 안녕하세요.
AI와 함께 좀 더 나은 미래의 삶을 추구하는 AI-28호입니다.

저의 블로그를 구독해 주시고 미래의 삶으로 같이 한 걸음씩 가볼까요?

오늘도 디지털 초보(털보)분과 함께 합니다.

 

 

[인공지능] 쉽게 설명해 드립니다.

 

오늘은 인공지능에 관한 이해를 돕는 이야기를 해볼까 합니다. 인공지능이란 무엇인지 어느정도의 기술 수준에 닿아 있는지 앞으로는 어떠한 변화의 가능성을 가지고 있는지 알아보겠습니다.

 

 

 

인공지능이란 무엇인가?

 

 

개인적으로 4개월 정도 몰아붙이듯 쏟아져 나오는 인공지능 모델들을 겪으며 세상이 변하는 듯한 격변을 느끼는 몇 개월을 보내고 있는 요즘입니다. 마치 마이크로소프트는 웃고 구글은 고민하고 있는 모습이 상상되기도 하고 머지않아 펼쳐지게 될 영화 같은 일들이 상상되기도 하며 이러한 현실에서 어떻게 살아남아야 할까 매 순간 고민하지 않을 수 없게 되기도 합니다.

 

 

"인공지능은 무엇일까요?"

 

 

얼마전 유튜브 채널 머니인사이드에서 '정인성' 작가님 인터뷰를 보고 많은 내용을 알게 되었고 해당 내용을 공유드리려고 합니다. 우리 털보님들에게 인공지능은 무엇입니까?

 

정인성님의 인터뷰를 참고해 보면 인공지능은 여러 가지 일 수 있겠습니다. 예전 이세돌 바둑기사와 대국을 펼쳤던 알파고와 같은 소프트 웨어도 인공지능이고. 또는 스타크래프트 게임의 컴퓨터 상대 또한 인공지능입니다. 인공지능이라는 존재의 이미 자체가 영화 터미네이터와 같이 굉장한 존재의 의미가 아닙니다.

충분히 우리가 이미 많이 보아오고 겪어본 존재들이라는 겁니다.

 

이러한 인공지능은 데이터를 넣어주면 스스로 학습하는 방식으로 프로그램이 되어 개발이 되었고 인공지능에게 주어진 기본적인 로직에 학습할 데이터를 넣어주면 스스로 학습하고 학습영역을 확장해 나아가는 방식으로 발전하고 있습니다.

 

우리가 '인공지능에 어떠한 기능을 학습시켜서 어떻게 하도록 하겠다'라는 생각을 기대하는 것은 추상적인 개념입니다. 

 

이런 추상적인 개념을 인공지능으로 구현시키기 위해서는 프로그램이 필요하고 해당 프로그램의 방식은 여러 가지 형태로 발달해 왔지만 인간의 뇌의 신경망에서 힌트를 얻어 인공신경망을 개발하였고 딥러닝이라는 학습기술로 인공지능을 학습시키는 데 성공하여 현재의 기술 수준에 이르게 되었다고 합니다.

 

 

인공지능관련 하드웨어의 소개

 

 

'소프트 웨어'가 발달하려면 소프트웨어를 구현할 수 있는 하드웨어 역시 발달하여야 하겠죠?

'하드 웨어'의 발달은 필연적으로 동반되어야 할 문제입니다.

인공지능을 만들고 구현하는 컴퓨터가 하드웨어입니다.

하드웨어를 통칭하는 것이죠. 하드웨어도 여러가지 구성 요소들이 있겠지만 컴퓨터에서 가장 중요한 연산을 하는 장치와 기억을 하는 장치가 필요하겠습니다.

 

CPU, GPU 들어보셨나요?  

CPU(중앙 처리 장치) 및 GPU(그래픽 처리 장치)는 모두 컴퓨터, 스마트폰 및 기타 전자 장치에서 찾을 수 있는 사람으로 비유하면 뇌와 같은 반도체입니다. 

 

이 두 반도체의 차이점은 CPU는 다양한 작업을 처리하도록 복잡하게 설계되었고 그만큼 복잡하고 고성능을 요하는 작업에 적합니다.

 

반면 GPU는 그래픽 및 비디오 처리와 관련된 작업을 위해 특별히 설계되어 CPU보다 많은 코어(처리 장치)를 가지고 있어 3D 그래픽 렌더링이나 기계 학습 알고리즘 실행과 같이 많은 병렬 처리가 필요한 작업에 더 적합합니다. 대량의 데이터를 동시에 처리할 수 있는 것이 특징으로 특정 작업의 경우 CPU보다 훨씬 빠르게 작업할 수 있습니다.


요약하면 CPU는 다목적이며 다양한 작업을 처리하는 반면 GPU는 특수화되어 그래픽 및 비디오 처리와 관련된 작업은 물론 병렬 처리 작업에 탁월합니다.

 

 

"지금의 AI는 왜 비 효율적인가?"

 

 

지금의 인공지능은 GPU의 소수점 연산방식으로 모든 입력값을 소수점 값으로 다 바꾼다음 소수점 연산을 수억 번씩 진행하여 결과를 도출해 내는 방식입니다. 조건파악을 잘하는 CPU 보다는 무식하게 연산하여 산출하는 방식의 GPU는 역시 효율적이지 못하죠. 하지만 왜 이러한 비효율적인 GPU를 선택하게 되었을까요?

 

1960년대 인간의 뇌의 신경망를 따라서 구성해 보면 되지 않을까에 대한 해답을 캐나다에서 연구팀이 해답을 찾아냈습니다.  입력데이터를 넣고 결괏값에 어떠한 처리를 해주면 인공신경망이 정답률이 올라간다는 방법을 알아내게 되었고 그 방식에는 딥러닝이라는 기술로 수많은 학습데이터를 넣어주어야 했으며 데이터의 처리가 CPU 보다는 GPU가 5배 정도 처리속도가 높게 나타났습니다.

 

인공지능은 이러한 GPU를 병렬의 구조로 엄청나게 여러개를 묶어서 연산하여 답을 산출해 냅니다.  마이크로소프트사의 '애저'라는 AI가 이런 GPU를 10,000개를 엮었다고 합니다. 엄청나게 많은 칩이 들어가는군요.

이러한 칩이 많이 들어간다는 것도 비 효율적인 요소이지만 연산과정에서 발생하는 전력의 소모와 발열로 인한 대기의 온난화현상(탄소발생)을 야기 시킨다는 점에서 우리와 상관없는 이야기가 아닐 수 없겠네요.

 

이런 GPU가 인공지능에 사용되기 이전에 엄청나게 인기를 끌게 되었던 시점이 있습니다.

비트코인 아시죠? 비트코인 가상화패를 채굴하기 위해서 컴퓨터에 GPU가 필수적으로 필요했었고 수요를 공급이 못따라가서 GPU가격이 어마어마하게 상승을 했었던 시기가 있었습니다. 

 

그때 수해를 본 기업이 바로 NVIDIA라는 기업입니다.

 

NVIDIA라는 그래픽 카드 전문 회사를 아시나요?

 

컴퓨터 사양을 조금만 볼 줄 아시는 분이시라면 당연히 아시겠죠.

NVIDIA는 CPU를 만들 기술이 없었습니다. 그래서 GPU를 지속적으로 키워나가기 위해 여러 회사를 인수하고 발전시켜 나갈 준비를 하고 있었죠.

 

GPU와 CPU는 언어체계가 달라서 개발자들 끼리도 서로의 로직을 이해하고 파악하기가 어렵습니다.

이때 NVIDIA는 CUDA라는 플랫폼을 개발하여 여러 개발자들이 NVIDIA에서 개발한 GPU에서 실행할 수 있는 애플리케이션을 만들 수 있도록 하는 일련의 라이브러리, 도구 및 API(Application Programming Interface)를 제공하였습니다. 

CUDA는 기존의 CPU 기반 컴퓨팅보다 더 빠른 계산과 더 높은 정확도를 허용하기 때문에 과학 연구 및 엔지니어링 애플리케이션을 위한 인기 있는 플랫폼이 되었고 캐나다의 인공지능 개발자들이 GPU를 이용하여 인공 신경망을 훈련시켜본 결과 훈련 속도를 확연히 높일 수 있었기 때문에 기계 학습 커뮤니티에서 딥 러닝 및 인공 지능 응용 분야에 채택되었습니다.

 

 

"GPU? AMD는 안돼?

 

 

인공지능 시장이 더 발전하고 시장이 다각화 된다면 모르겠지만 지금으로서 NVIDIA의 GPU는 구동할 수 있는 하드웨어의 플랫폼으로써 자리매김한 것 같습니다. 모든 인공지능이 NVIDIA의 GPU의 구동을 기반으로 프로그래밍 되어있기에 지금 당장 인공지능을 가동시켜 보기 위해서는 대안이 없으니까요.

 

하드웨어에 메모리가 빠질 수 없겠죠. 시스템 메모리 뿐만 아니라 저장 메모리도 당연히 필요하겠습니다.

우리나라에서는 저장메모리를 주로 수출하고 있고 품목은 고용량 고대역 메모리 D램 메모리를 주력으로 하고 있다고 합니다. 마이크로소프트사의 애저 AI가 메모리 용량이 40만 GB정도라고 하네요. 삼성전자에서 1년치 판매되는 스마트 폰에 들어가는 메모리 양과 비슷한 양이라고 합니다.

 

또한 이러한 인공지능은 '클라우드'라는 인터넷 원격 서버 네트워크를 주로 사용하게 됩니다. 보통은 개인용컴퓨터나 로컬 서버에 데이터를 저장하고 관리하거나 처리하지만 클라우드 네트워크를 사용하게되면 인터넷 환경 어디에서나 데이터를 관리 할 수 있게 되는 시스템이죠. 

 

해당 '클라우드' 서비스를 장악하고 있는 상위 1위~3위 회사는 아마존과 마이크로소프트 그리고 구글입니다.각각의 시장 점유율은 다음과 같습니다.

 

Amazon Web Services(AWS) : 33%Microsoft Azure : 21%Google Cloud : 11%

 

 

클라우드는 로컬 서버나 개인용 컴퓨터에 의존하지 않고 데이터를 저장, 관리 및 처리하는 데 사용되는 인터넷에 호스팅된 원격 서버 네트워크를 말합니다. 개발중인 인공지능 모델이 없는 아마존이 조용히 웃을 수 밖에 없는 이유 이기도 합니다.

 

 

 

인공지능의 학습방식에 따른 물리적 한계

 

"인공지능 정말 신과 같은 존재일까요?"

 

 

인공지능의 최대의 단점은 적은 데이터로 학습이 불가능하다는 것입니다.

인터넷에 있는 방대한 정보들을 그냥 가져다가 학습시킬 수 있다고 생각 하실 수 있겠지만 인터넷에 있는 정보를 가공 없이 그냥 학습한다면 정말 인공지능은 오류덩어리가 될지도 모를 일입니다.

 

 

"인공지능에게 학습을 시키기 위해서는

질문과 질문에 해당하는 양질의 대답이 여러개 필요합니다."

 

 

우리가 상상하는 인간과 같이 생각하는 듯한 인공지능을 구현하기 위해서는 정제된 양질의 학습데이터의 쌍(질문과 수많은 대답)이 필요하고 해당 데이터를 가공해야 합니다. 데이터를 가공하는데 비용이 발생하겠죠. 그리고 가공된 데이터를 학습시키기 위한 비용도 만만치 않게 발생합니다. 

 

또한 AI가 어떠한 것을 수행할 수 있도록 설계하는데에는 수많은 양의 시스템 데이터가 필요하게 되고 그러한 이유로 데이터를 축척할 데이터센터가 물리적으로 만들어 져야 하며 발전하게될 소프트웨어의 능력치를 반영할 수 있도록 하드웨어가 고성능으로 개발되어야 합니다.

 

chat gpt와 대화를 해보셨으면 아시겠지만 3000 단어 이상의 단어가 들어가면 chat gpt는 그 앞의 내용을 모두 잊어버립니다. 이러한 부분이 앞서 설명드렸던 물리적인 한계 GPU의 한계라고 보시면 됩니다.

 

물론 3000단어 이상을 처리하기 위해서 GPU를 더 많이 병렬로 엮어서 처리 가능한 한계를 늘리는 것은 물리적으로 가능한 일이 되겠습니다. 하지만 그러기 위해서 발생하는 비용의 문제를 생각해 본다면 과연 회사차원에서 그 마한 비용을 투자할 가치가 있을까요?

 

 

 

오늘의 내용을 종합해 보면AI의 발달은 현재 공개된 기술들의 조합으로 이루어지는 서비스들을 예상할 수 있으며 하드웨어나 새로운 AI의 개발은 당분간 현시점 정도의 수준일 것이다.


새로운 인공지능 모델을 위하여 AI를 학습시키기 위해서는 양질의 데이터와 뛰어난 하드웨어가 필요하다.


현재의 비효율적인 하드웨어시장을 바꾸어 놓을 수 있는 기술의 인공지능 관련 하드웨어 후발주자 회사라면 인공지능 시장에 게임체인저로 신장의 판을 뒤집을 수도 있다.

반응형