Mamba는 인공 지능 분야의 혁신적인 발전으로, 시퀀스 모델링과 AI 비전 모두에 상당한 기여를 하고 있습니다. 시퀀스 모델링에서 Mamba는 선형 시간 스케일링과 선택적 상태 공간 접근 방식을 도입하여 시퀀스 길이 및 계산 제약 조건의 한계를 극복하고 효율성과 성능의 패러다임 전환을 표시합니다. AI 비전 영역에서 Vision Mamba(Vim)는 양방향 상태 공간 모델을 도입하고 AI 비전의 새로운 패러다임을 나타내는 획기적인 개발로 등장합니다.

게다가 Mamba는 단순한 기술 발전이 아닙니다. 이는 시퀀스 모델링의 효율성과 성능의 새로운 시대를 의미하며 변압기와 같은 기존 모델의 종말을 의미합니다. 자연어 처리(NLP)의 획기적인 발전인 Mamba 아키텍처는 데이터 품질과 아키텍처가 AI 성능에 미치는 영향을 강조합니다.

Mamba가 GPT보다 나은 3가지

1) 장기적인 상황에서의 효율성 : Mamba는 효율성과 일관성을 유지하면서 확장된 상황에서 탁월한 성능을 보여줍니다. 이에 비해 GPT 모델은 효율성이 떨어지는 경향이 있는 더 긴 컨텍스트에서 문제에 직면하는 경우가 많습니다.

2) 비용 효율성 : Mamba는 Transformers와 같은 GPT 모델에 필적하는 표현력을 제공하면서도 비용 효율성은 더 높습니다. 이러한 비용 효율성으로 인해 Mamba는 특히 리소스 집약적인 작업에서 저렴한 비용으로 유사한 기능을 제공하는 유리한 선택이 됩니다.

3) 상태 저장 아키텍처 : Mamba는 상태를 우아하게 저장하는 혁신적인 상태 저장 아키텍처를 도입하여 GPT를 포함한 Transformers만큼 표현력이 뛰어납니다. 이 아키텍처는 독특한 기능일 뿐만 아니라 Mamba의 비용 효율성과 성능에도 기여합니다.

'학습' 카테고리의 다른 글

이제는 인간 피드백이 아닌 AI 피드백 강화 학습?  (1) 2024.01.22
GPTs 해킹가능성  (1) 2024.01.22
강화학습이란?  (0) 2024.01.22
파이썬 List와 Tupple 생성해보기  (0) 2023.07.05
인공지능 토픽 정의  (0) 2023.07.04


구글(Google)이 GPT-4 뛰어넘는 멀티모달 AI 모델 ‘제미나이(Gemini)’를 공개했습니다.

기자간담회에서 공개한 내용은 이미지, 영상, 텍스트(사용자의 말) 정보를 동시에 포괄적으로 이해, 사람과 자유자재로 대화가 가능하고, 예측, 합리적 추론에 대한 답을 얻을 수 있습니다.

가장 큰 모델 제미나이 울트라는 32개 학술 벤치마크(benchmark, 성능 지표) 중 30개에서 GPT-4를 능가합니다.

특히 수학, 물리학, 역사, 법률, 의학, 윤리 등 57개 과목을 조합해 지식, 문제 해결 능력을 테스트하는 ‘MMLU(대규모 다중 작업 언어 이해)’에서 90.0%의 점수를 획득, 최초로 인간 전문가를 넘어섰습니다. (GPT-4의 MMLU 점수는 86.4%)

수학 능력을 측정하는 GSM8K에서도 94.4%의 점수 획득(GPT-4는 92%), 코드 작성 능력(HumanEval)은 74.4%(GPT-4는 67.0%) 달성했습니다.

그리고 추가적으로 '인간 피드백에 기반한 강화 학습(RLHF)'을, 'AI 피드백에 기반한 강화 학습(RLAIF)'으로 대체하여 더 빠르고 저렴하게 AI를 학습시킬 수 있는 방법을 Google Research에서 revision을 12월 1일에 발표했습니다. (1차는 9월에)

용어 설명을 하자면 RLHF는 LLM의 성능을 크게 높여주고 특히 인간의 선호도에 맞춘(alignment) 답변을 할 수 있도록 만드는 데 필수적인 기법으로 자리 잡았으며, LLM을 chat model에 맞게 chat data를 훈련하여 성능을 올렸습니다.

하지만 RLHF로 학습을 시키려면 인간 레이블러를 통해 지속적으로 고품질 학습 데이터를 만들어야 하는데, 이 데이터를 만드는 일은 시간과 비용이 굉장히 많이 드는 일입니다.

그런데 인간 대신 강력한 기성 LLM (e.g.,PaLM 2)을 사용하여 레이블링을 하는 방식으로 대신해보았더니, 인간의 레이블을 통해 학습하는 방법과 성능 차이가 거의 없었고, 심지어 무해성은 더 높은 성능을 가지는 것으로 나타났습니다.

아직 초기 단계의 연구이긴 하지만, 최고 성능의 모델이 조금 더 좋아지고, 이에 따라 RLAIF가 RLHF보다 확실하게 더 높은 성능을 보이게 되는 날이 오면, 안전하고 높은 수준의 AI를 쉽게 만들 수 있는 것으로 보여집니다.

RLAIF: Scaling Reinforcement Learning from Human Feedback with AI Feedback - https://arxiv.org/abs/2309.00267

RLAIF: Scaling Reinforcement Learning from Human Feedback with AI Feedback

Reinforcement learning from human feedback (RLHF) has proven effective in aligning large language models (LLMs) with human preferences. However, gathering high-quality human preference labels can be a time-consuming and expensive endeavor. RL from AI Feedb

arxiv.org

'학습' 카테고리의 다른 글

GPT 모델 개선한 Mamba 등장?  (0) 2024.01.23
GPTs 해킹가능성  (1) 2024.01.22
강화학습이란?  (0) 2024.01.22
파이썬 List와 Tupple 생성해보기  (0) 2023.07.05
인공지능 토픽 정의  (0) 2023.07.04

GPTs 보안이 뚫려서 해킹이 현재 가능하다고 합니다, 참고하시기 바랍니다.

1. Instructions는  프롬프트 엔지니어링이라 GPT에게 채팅으로 Instructions를 알려달라고 하면 바로 알려주게 됩니다. 물론 Instructions 내에 알려주지 말라는 문구를 추가하면 일부 프롬프트는 막을 수 있겠으나  프롬프트에 따라서 언제든 충분히 뚫릴 수 있습니다. 따라서 그냥 공개된 곳이라고 생각하시는 것이 좋을 듯합니다.

2. Knowledge는 GPT가 참고할 수 있는 첨부파일 자료인데 GPT가 실행되는 가상 환경의 /mnt/data 경로에 저장이 되어있다가 활용이 되는데요. 이 파일들은 GPT에게 조회 권한이 있어야 하므로 프롬프트를 통해 불러와서 내용을 확인할 수 있습니다. 이를 파이썬으로 plt.imshow(image), file.read() 등으로 조회가 가능합니다. 즉, 기업 내부 데이터 등 공개되면 안 될 자료는 절대 업로드하시면 안 됩니다!

GPTs 제작하실 때 주의하시기 바랍니다.

관련 영상 : https://www.youtube.com/watch?si=_VduEf_hZWkxmecg&v=XEaqIJBpqxw&feature=youtu.be

'학습' 카테고리의 다른 글

GPT 모델 개선한 Mamba 등장?  (0) 2024.01.23
이제는 인간 피드백이 아닌 AI 피드백 강화 학습?  (1) 2024.01.22
강화학습이란?  (0) 2024.01.22
파이썬 List와 Tupple 생성해보기  (0) 2023.07.05
인공지능 토픽 정의  (0) 2023.07.04


강화 학습(RL)은 에이전트가 환경과 상호 작용하여 의사 결정을 내리는 것을 배우는 기계 학습의 하위 분야입니다. 에이전트는 환경에서 행동을 취하고, 보상이나 처벌의 형태로 피드백을 받고, 이 정보를 사용하여 시간이 지남에 따라 의사 결정을 향상시킵니다.

강화 학습의 주요 구성 요소는 다음과 같습니다:

1. Agent : 환경에서 의사결정을 하고 행동을 취하는 엔티티 또는 시스템.

2. Environment : 에이전트와 상호 작용하는 외부 시스템 또는 환경.

3. Actions : 에이전트가 특정 상태에서 할 수 있는 가능한 이동 또는 결정의 집합입니다.

4. State : 에이전트의 결정에 영향을 미치는 환경의 현재 상황 또는 구성.

5. Reward : 에이전트가 특정 상태에서 행동을 취한 후 피드백으로 받는 수치. 에이전트의 목표는 시간에 따른 누적 보상을 극대화하는 것입니다.

6. Policy : 에이전트가 현재 상태에 따라 작업을 결정하는 데 사용하는 전략 또는 매핑입니다.

강화 학습 알고리즘은 에이전트가 가능한 최대 누적 보상으로 이어지는 결정을 내리도록 안내하는 최적의 정책을 찾는 것을 목표로 합니다. 학습 과정은 종종 탐색(효과를 발견하기 위해 새로운 행동을 시도하는 것)과 활용(높은 보상을 산출하는 것으로 알려진 행동을 선택하는 것) 사이의 균형을 포함합니다.

일반적인 RL 알고리즘에는 에이전트가 각 상태의 각 동작에 대한 Q 값을 학습하는 Q-러닝과 보상을 최대화하기 위해 정책을 직접 최적화하는 정책 구배 방법이 있습니다. 심층 강화 학습(DRL)은 RL과 심층 신경망을 결합하여 고차원적이고 복잡한 입력 공간의 처리를 가능하게 합니다.

RL은 로봇 공학, 게임, 금융, 건강 관리, 그리고 자율 시스템과 같은 다양한 분야에서 응용 프로그램을 찾습니다. 그것은 초인적인 수준에서 게임을 할 수 있는 에이전트를 훈련시키고, 로봇을 제어하고, 금융 거래 전략을 최적화하고, 건강 관리 치료를 개인화하는 데 사용되었습니다.

RL의 성공에도 불구하고 샘플 비효율성, 탐색-이용 절충, 하이퍼 파라미터 튜닝에 대한 민감성 등의 문제가 있습니다. 현재 진행 중인 연구는 이러한 문제를 해결하고 실제 시나리오에서 강화 학습의 적용 가능성을 확장하는 것을 목표로 하고 있습니다.

이제 미니콘다를 설치했으니 간단한 소스코드를 실행시켜보자!
인공지능 개발에서 가장 중요하다는 리스트와 튜플에 대해 먼저 알아보자
 
콘솔창에서 jupyter notebook 을 실행하면 다음과 같은 브라우저가 뜰것이다.
우측 상단에 New 버튼을 클릭한다.

그러면 아래와 같은 콤보가 아래로 열리는데 Python3를 눌른다

그러면 Untitled라는 파일이 자동 생성되는데 상단에 파일이름을 눌러 저장하고 싶은 이름으로 바꿔보자.

나는 List라고 저장하였다.

그러면 아래와 같은 노트가 펼쳐지는데 In [ ] : 영역부분을 마우스를 클릭한다.

리스트와 튜플을 실행해보려면 먼저 matplotlib 가 필요하므로 설치해보자
아래의 코드를 입력하고 상단에 Run 버튼을 클릭한다.

!pip install matplotlib

그러면 라이브러리가 다운되면서 설치되는 모습이 보일것이다.
먼저 튜플관련 코드를 작성하려면 numpy 라는 패키지를 추가해야 된다.
import 명령어를 통해 numpy 를 추가하고 그것을 np 로 호출하겠다고 선언한다.
numpy로 호출해도 되는데 그러면 코드가 길어지니 짦게 2자리수로 줄여서 호출한다.
 
파이썬에서 리스트는 [] 안에 넣어 , 로 구분하여 처리한다.
x, w의 리스트를 만들어 두 리스트를 더해보자.
그랬더니 결과가 x의 리스트 뒤에 w 리스트가 추가된다.

그러면 튜플은 어떻게 될까?
튜플은 넘파이  함수를 이용하여 np.array([]) 안에 넣어서 생성한다.
리스트와 똑같이  x, w인 튜플을 만들고 두 튜플을 더해보자.
리스트와는 다르게 두 튜플의 같은 인덱스 공간에 있는 원소들이 더해진다.

여기서 리스트와 튜플이 다른점은 리스트는 출력될때 원소 사이에 , 가 넣어지지만 튜플은 , 가 없다.
아  ,(콤마) 로 리스트와 튜플을 구분 할수 있는 구나?
그리고  인공지능 코딩할때 배열끼리 합해질때는 튜플을 써야 겠구나? 생각이 든다.
 
그럼 인공지능 코딩할 때 어떻게 리스트와 튜플을 쓸까?
일단 arange 함수를 이용하여 100개의 튜플을 생성하고 출력해보면 0~100으로 채워진다.
튜플 각 원소에 100을 곱해보자. (인덱스와 실제 데이터가 헷갈리기 때문에 100을 곱했다.)
그리고 출력하면 0~9900까지가 출력된다.
 
인공지능의 K-Fold 같은 기능을 구현할때는 데이터의 80%, 20%를 나눠서 트레이닝 해야되는데 이럴때 리스트와 튜플을 같이 사용할수있다. 아래의 빨간박스의 중간 데이터를 20% 와 나머지로 분할해보자.

먼저 20% 검증데이터를 만들려면, 
일단 a 에 시작점과 끝점을 넣어 리스트를 추출해보자
start=10 //  인덱스 10번째에서 시작하고
end = 20 // 20번째에서 끝내라 
val = a[start:end] // a튜플의 10 ~ 19번째까지를 잘라서 리스트를 추출한다.
 
80% 트레이닝 데이터를 만들려면,
위의 검증데이터를 제거한 인덱스 0~9와 20~99가 포함된 튜플을 만들어야 한다.
튜플에 넣는 데이터는 연속된 공간에 넣어야 활용할 수 있으므로
인덱스를 생성해서 80개짜리 새로운 튜플을 만들어보자
 
index = list(range(0, start))+list(range(end, len(a))) // 인덱스 0~9와 20~99를 더해준다.
print(index) // 10 ~ 19의 인덱스가 사라진 리스트를 만들수 있다.
위에도 말했지만 리스트는 더하면 리스트 뒤에 리스트가 추가된다.

fold = a[np.array(index)] 함수를 사용하여 a튜플에서 80개의 index가진 원소들만 튜플로 생성할 수 있다.
그러면 인덱스 0~9와 20~99를 가지는 원소들이 튜플에서 추출되서 새로운 fold 튜플로 생성된다.
출력해 보면 10 ~ 19인덱스에 있는 데이터(1000 ~ 1900)가 사라져 있을것이다.

이처럼 리스트와 튜플의 특성을 이용하여 쉽게 인공지능을 코딩할 수 있다.
파이썬은 참 강력한 언어인것 같다.

'학습' 카테고리의 다른 글

GPTs 해킹가능성  (1) 2024.01.22
강화학습이란?  (0) 2024.01.22
인공지능 토픽 정의  (0) 2023.07.04
인공지능 코딩위한 환경설정  (0) 2023.07.03
인공지능과 머신러닝 딥러닝의 관계  (0) 2023.07.03

1.  지도학습

[선형 회귀 (Linear Regression)]

알려진 다른 관련 데이터 값을 사용하여 알 수 없는 데이터의 값을 예측하는 데이터 분석 기법
종속 변수 y와 한 개 이상의 독립 변수 X와의 선형 상관 관계를 모델링하는 회귀분석 기법

- 회귀를 사용하여 데이터가 어떤 범주에 속할 확률을 0에서 1 사이의 값으로 예측하고 그 확률에 따라 가능성이 더 높은 범주에 속하는 것으로 분류해주는 지도 학습 알고리즘

[다항 회귀 (Polynomial Regression)]

회귀식의 독립변수가 2차, 3차 방정식 같은 다항식으로 표현되는 것
단순한 비례관계로 표현되는게 편하지만 수많은 데이터 표현할 때는 그렇지 않기 때문에 다항 회귀를 사용

[LMS(Least Mean Square) - 최소 평균 제곱 알고리즘]

많은 데이터가 주어졌을때 그 데이터들이 이루는 그래프를 산출해내기 위하여 사용하는 방법
미분의 개념을 최적화 문제에 적용한 방법중 하나로 함수의 local minimum을 찾는 방법중 하나
정교한 방식으로 확률적 경사 하강을 사용하는 기계 학습에 사용되는 필터 유형

[퍼셉트론 (Perceptron)]

인공 신경망(Aritificial Neural Network, ANN)의 구성 요소(unit)로서 다수의 값을 입력받아 하나의 값으로 출력하는 알고리즘

[최소제곱법 (Least Square Method)]

목적 변수 y와 일반 선형회귀 모형으로 추정한 yhat의 차이가 최소가 되도록 하는 회귀 계수를 구하는 방식

[소프트맥스 회귀 (Softmax Regression)]

로지스틱 회귀 중에서도 다중분류를 위한 회귀
로직스틱 회귀가 0또는 1, 성공 또는 실패 등의 두개의 라벨을 분류한다면 소프트맥스 회귀는 A 또는 B 또는 C처럼 3개 이상의 라벨을 분류하는데 쓰일 수 있다.

[판별 분석 (Discriminant Analysis)]

두 개 이상의 모집단에서 추출된 표본들이 지니고 있는 정보는 이용하여 이 표본들이 어느 모집단에서 추출된 것인지를 결정해 줄 수 있는 기준을 찾는 분석법

[다변량 정규분포 (Multivariate Vaussian Normal distribution, MVN)]

정규분포를 다차원 공간에 대해 확장한 분포

[선형판별분석 (Linear Discriminant Anaylysis, LDA)]

두 개 이상의 모집단에서 표집된 표본들의 데이터분포를 이용하여 이 표본들이 어느 모집단에서 추출된 것인지 분류 예측을 할수 있도록 기준을 찾는 분석법
클래스 분리를 위해 클래스 평균값간의 거리를 최대화시키고, 겹치는 오류를 최소화 시킨다.

[나이브 베이즈 분류 (Naive Bayes Classification)]

데이터가 각 클래스에 속할 특징 확률을 계산하는 조건부 확률 기반 분류 방법
나이브 : 예측한 특징이 상호 독립적이라는 가정 하에 확률 계산을 단순화
베이즈 : 입력 특징이 클래스 전체의 확률 분포 대비 특정 클래스에 속할 확률을 베이즈 정리 기반으로 계산

[라플라스 스무딩 (Laplace Smoothing)]

만약 기존에 없는 새로운 단어가 입력된다면 해당 단어에 대한 확률이 0이기 때문에 모든 확률이 0이 되는 문제가 발생하는데 이를 해결하기 위한 기법

- 각 분자에 1을 더함으로 이를 해결
- 분모에는 중복을 제거한 모든 데이터의 수를 더해줌

[서포트 벡터 머신 (Support Vector Machine, SVM)]

데이터 집합 바탕으로 새로운 데이터가 어느 카테고리에 속할지 초평면, 마진 통한 데이터를 분류하는 지도학습 알고리즘
데이터가 어느 카테고리에 속할지 판단하는 이진 선형 분류 모델

2. 딥러닝

[신경망 (neural network)]

뉴런이라는 기본유닛이 여러겹 놓여있고 가중치를 통해 연결관계를 표현하고 입력층, 은닉측, 출력층 순서로 결과를 출력하는 인간의 두뇌를 모방하는 인공 지능 방식

[역전파 (Backpropagation)]

계산 결과와 정답의 오차를 구해 이 오차에 관여하는 값들의 가중치를 수정하여 오차가 작아지는 방향으로 일정 횟수를 반복해 수정하는 방법
출력층에서 입력층 방향으로 오차를 전파시키며 각 층의 가중치를 업데이트

3. 일반화 및 정규화

[Variance Trade-off (편향-분산 트레이드 오프)]

모델이 복잡해질 수록 편향(Bias)은 작아지고, 분산(Variance)은 커져서 over-fitting 됨
모델이 단순해질수록 편향은 커지고, 분산은 작아짐, under-fitting 됨
무조건 편향만 줄일 수도, 무조건 분산만 줄일 수도 없음, 오류를 최소화하려면 편향과 분산의 합이 최소가 되는 적당한 지점을 찾아야 함

[일반화 (Generalization)]

이전에 본 적 없는 새로운 데이터에 대해 정확하게 예측할 수 있는 능력
 
[정규화  (normalization)]
데이터는 그 값이 너무 크거나 작지 않고 적당한 범위 (-1에서 ~ 1사이)에 있어야 모델의 정확도가 높아짐

- 입력 변수 X를 최소값은 0, 최댓값은 1이 되게 1차 함수를 통해서 변환

[표준화 (standardization)]

입력 변수 X를 평균이 0, 분산이 1인 정규 분포가 되도록 1차 함수를 통해서 변환
데이터에 이상값이 포함되었을 가능성이 높다면, 표준화를 적용하면 하고
반대로. 이미지 데이터처럼 최솟값과 최대값을 미리 알 수 있는 경우에는 정규화를 사용

4. 비지도 학습

[클러스터링 (Clustering)]

하나의 데이터를 여러개의 부분집합 (clusters) 으로 분할하는 것을 의미

[k-means 알고리즘]

특정한 임의의 지점을 선택해 군집 중심점을 설정하고, 해당 중심에 가장 가까운 포인트 들을 선택하여 k개의 클러스터로 묶는 알고리즘

[기댓감 최대화 알고리즘 (Expectation-Maximization algorithm, EM algorithm)]

관측되지 않는 잠재변수에 의존하는 확률 모델에서 최대우도나 최대사후확률을 갖는 매개변수를 찾는 반복적인 알고리즘

[주성분 분석 (Principal Component Analysis, PCA)]

데이터의 분산을 최대한 보존하면서 서로 직교하는 축을 찾아, 고차원 공간의 표본들을 선형 연관성이 없는 저차원 공간으로 변환하는 기법

- 분산을 최대화시키는 고유벡터를 찾는다.

[독립성분분석 (Independent Component Analysis, ICA)]

주어진 다변량 신호를 독립적인 비정규분포(Non-Gaussia)의 신호들로 분해하는 기법

[자기지도학습 (Self-supervised learning)]

최소한의 데이터만으로 스스로 규칙을 찾아 분석하는 AI 기술

[제로샷 학습 (Zero-shot learning)]

모델이 학습 과정에서 배우지 않은 작업을 수행하는 것

[사전학습 (Pre-training)]

이미 방대한 양의 학습 데이터를 이용해서 학습을 완료한 모델

[전이학습 (Transfer Learning)]

하나의 작업을 위해 훈련된 모델을 유사 작업 수행 모델의 시작점으로 활용하는 딥러닝 접근법

[Fine-tuning]

기존에 학습되어져 있는 모델을 기반으로 아키텍쳐를 새로운 목적에 맞게 변형하고 이미 학습된 모델의 가중치를 미세하게 조정하여 학습시키는 방법

- 기존에 학습이 된 레이어에 데이터를 추가로 학습시켜 파라미터를 업데이트

5.  강화 학습

[Reinforcement Learning]

상태(State)에서 어떤 행동(Action)을 취하는 것이 최적인지를 학습하는 방법, 행동을 취할 때마다 외부 환경에서 보상(Reward)이 주어지는데, 이러한 보상을 최대화 하는 방향으로 학습하는 방법

[MDP (Markov Decision Process)]

순차적 행동 결정 문제를 수학적으로 정의하는 것으로 상태, 행동, 상태 전이 확률, 보상, 감가율로 구성된다. 각 상태에서 최적의 행동을 찾는 것으로 더 좋은 정책을 찾는 과정

'학습' 카테고리의 다른 글

GPTs 해킹가능성  (1) 2024.01.22
강화학습이란?  (0) 2024.01.22
파이썬 List와 Tupple 생성해보기  (0) 2023.07.05
인공지능 코딩위한 환경설정  (0) 2023.07.03
인공지능과 머신러닝 딥러닝의 관계  (0) 2023.07.03

인공지능 코딩을 위해서는 미니콘다, 주피터가 필요하다. 이 둘을 설치하면 파이썬을 이용해  AI 코딩을 할수 있다.
왜 미니콘다를 사용해야 하냐면 아나콘다는 라이센스가 있기 때문이다. 라이센스가 없는 미니콘다를 설치해보자.
 

1) miniconda 설치

https://docs.conda.io/en/latest/miniconda.html#windows-installers

Miniconda — conda   documentation

Miniconda is a free minimal installer for conda. It is a small, bootstrap version of Anaconda that includes only conda, Python, the packages they depend on, and a small number of other useful packages, including pip, zlib and a few others. Use the conda in

docs.conda.io

모든 개발버전이 그러하듯 너무 최신을 설치하면 안된다.
미니콘다 사이트에 들어가서 최신버전에서 2번째 아래 버전을 받아보자.
나는 Python 3.8버전을 클릭하였다.
 

클릭하면 다운로드 폴더에 실행파일이 다운로드 받아진다. 더블클릭하여 실행시킨다.

다음과 같은 화면이 뜨는데 대부분 다음을 누르지만 중간에 체크하는 부분은 모두 체크해야되므로 화면을 잘 보자!

Just Me를 체크한다!

설치할 폴더는 선택하도 Next~ 거의 기본설정으로 해도된다

잠깐! 아래의 화면에서는 4개모두 선택하도록 하자!

프로그레스바가 끝까지 차면서 Completed라고 나오면서 Next버튼이 활성화 된다.

Finish 버튼이 보이면 설치 완료!

윈도우 왼쪽 검색창에 Anaconda Prompt를 검색하여 파워셀을 실행시킨다.

2) 주피터 설치

주피터 설치를 위해 Shell에 pip install jupyter 를 입력하고 엔터를 친다. 주피터가 다운로드 되면서 설치되는것을 볼 수 있다.

우선 나는 D: 를 쳐서 D 드라이브로 폴더를 옮기고 jupyter notebook 명령어를 쳐서 브라우저를 연결했다. 브라우저 선택창이 뜨면 크롬을 선택하고 크롬이 없으면 구글에서 크롬을 설치해서 주피터를 설치하자

브라우저를 연결하고 나면 코딩을 작성할수 있는 화면이 나온다!
이럴게 주피터까지 설치하고 나면 환경설정이 완료된거다.

인공지능은 개발툴도 정말 가볍고 좋은 것 같다.
정말 다른 일반적 개발 툴들은 되게 무겁고 깔아야 될것도 많은데 말이다.

'학습' 카테고리의 다른 글

GPTs 해킹가능성  (1) 2024.01.22
강화학습이란?  (0) 2024.01.22
파이썬 List와 Tupple 생성해보기  (0) 2023.07.05
인공지능 토픽 정의  (0) 2023.07.04
인공지능과 머신러닝 딥러닝의 관계  (0) 2023.07.03

1) 인공지능 1950년 ~ 1980년


사람이 하는 일을 자동으로 바꿔주는 기술, 데이터를 넣고 코딩으로 자동화시킨다.
이때, 사용한 단층 퍼셉트론이 간단한 XOR 문제도 분류 못하여 인공지능의 천번째 겨울이 왔다.
XOR문제는 0, 1 공존할 경우 어느것이 0이고 어느것이 1인지 분류를 못하는 문제이다.
하지만, 이는 다층 퍼셉트론의 등장으로 해결이 되었고 머신러닝으로 발전하게 된다.

2) 머신러닝 1980년 ~ 2010년

데이터와 규칙을 넣으면 미래를 예측 하거나 새로운 정보를 생성하는 기술.
1970년도 부터 역전파(Backpropagation) 알고리즘이 발견되면서 머신러닝이 발전이 가속화 되었다. 역방향으로 에러를 전파시키면서 최적의 학습결과를 도출했다.
하지만, 레이어가 깊어지면 오차를 찾지 못해 기울기가 0이 되어 최적의 모델을 찾지 못하는 기울기소실 문제가 발생되어 두번째 겨울이 오게된다.
언제나 그렇듯 기술적 한계의 도전하는 연구자들의 피나는 노력으로 활성화함수가 개발이 되어 해결이 된다.


3) 딥러닝 2010년 ~ 현재


데이터를 넣지 않아도 데이터를 생성하여 규칙을 찾고 미래도 예측해주는 기술이다.
현재 활발하게 적용중이다.
3번째 겨울은 오지 않았으면 좋겠다.


인공지능 교육의 최고 전파자
”앤드류 응“ 교수님이 그려셨다.
인공지능을 공부한 사람과 하지 않은 사람의 차이는 하늘과 땅 차이라고!
그럼 일단 툴이라도 설치하러 가볼까나?

'학습' 카테고리의 다른 글

GPTs 해킹가능성  (1) 2024.01.22
강화학습이란?  (0) 2024.01.22
파이썬 List와 Tupple 생성해보기  (0) 2023.07.05
인공지능 토픽 정의  (0) 2023.07.04
인공지능 코딩위한 환경설정  (0) 2023.07.03

+ Recent posts