1. She/He said + 문장(주어 + 동사) 

  • She said I have to clean up my room every day, but I'm busy.

2. I have to / should + 동사 

  • I have to find the answer by myself.

3. Sure, I can + 동사 

  • Sure, I can go home by myself.
  • Sure, I can show you my bank balance.

 

Conversation

What did your parents nag you about?

- My father said you have to save money for your future. 

 

How can you save the money?

- By investing in stocks, Installment savings.

 

May I ask how much you have?

- I can't tell you my assets, but I don't think I have much money.

 

What is the most important thing someone you like has ever said to you? Why do you like it?

- My father said "The higher you go, the lonelier you become. As you progress up the career ladder, things change dramatically. You will have far fewer colleagues; it gets increasingly lonely and there is much greater responsibility. The level of fear, uncertainity, and doubt will jump and so will stress levels. Hence, all the more reason why you should be a self-starter." I think he wanted me to be a person who could do anything on my own. What my father said was so impressive. It made me better person than before. 

 

Whose words motivated you the most? What did they say? 

- The mathematical analysis professor said "We need to do more and not be complacent now. "

 

'일상 > 영어' 카테고리의 다른 글

24.08.27  (2) 2024.08.28
24.01.30  (0) 2024.01.30
24.01.27  (0) 2024.01.27

1. 정규 표현식 

 

1.1 정규 표현식이란? 

정규 표현식(Regular Expression)은 텍스트 내에서 문자열의 패턴을 찾기 위해 사용되는 일련의 문자와 특수문자의 조합.

이를 통해 데이터를 검색하고, 대체하고, 추출하는 등의 작업을 수행할 수 있다. 

 

1.2 정규 표현식 사용 시기

  • 데이터의 형식 검사
  • 특정 패턴이나 조건에 맞는 문자열을 검색
  • 데이터 정제 및 가공, 특정 정보 추출

 

1.3 정규 표현식의 장점

  • 수동으로 검사하기 어려운 대량의 텍스트 데이터를 빠르게 처리 가능
  • 다양한 문자열 패턴과 조건을 간단한 식으로 표현할 수 있어 데이터를 매우 유연하게 데이터를 다룰 수 있음.
  • 정규 표현식 문법은 언어마다 거의 동일하므로, 다른 프로그래밍 언어에서도 손쉽게 활용 가능

 

1.4 정규 표현식 주의사항

  • 복잡하거나 비효율적으로 작성된 정규 표현식은 성능 저하를 유발할 수 있음.
  • 광범위하게 매치되는 패턴이 있거나, 놓친 특수 케이스가 발생할 수 있음.
  • 작성한 방식에 따라 가독성이 낮아질 수 있음.
  • 정규표현식 대신 간단한 문자열 처리 함수를 사용하는 것이 더 효율적일 수 있음. 

 

2. 메타문자 

 

2.1 메타문자란?

메타문자는 정규 표현식에서 특별한 의미를 갖는 문자들을 말한다.

이들은 단순한 글자가 아니라, 데이터를 검색하고 패턴을 정의하는 데 사용된다.

 

2.2 메타문자의 종류

  • . : 어떤 한 개의 문자와 일치한다. 단, 행을 바꾸는 개행 문자(\n)는 제외된다.
  • ^: 문자열의 시작을 나타낸다.
  • $: 문자열의 끝을 나타낸다.
  • |: 두 패턴 중 하나와 일치한다. OR 연산자라고 한다.
  • \: 특수 문자를 일반 문자로 사용하거나, 특수 시퀀스를 나타내는 데 사용된다. 

 

2.3 주의사항

  • 메타문자는 그 자체로 특별한 의미를 갖기 때문에, 글자 그대로 매치하려면 \를 앞에 붙여 이스케이프해야 한다. 예를 들어, . 자체를 찾으려면 \. 를 사용해야한다. 
  • 메타문자를 사용할 때는 패턴이 어떤 문자열과 일치하는지 정확히 이해하고 사용하는 것이 중요하다.
  • 메타문자를 사용할 때 예상치 못한 결과를 가져올 수 있으므로 주의해서 사용해야 한다. 

 

3. 특수시퀀스와 반복자 이해하기

 

3.1 특수시퀀스란?

특수 시퀀스는 정규 표현식에서 자주 사용되는 특정 패턴을 간단한 코드로 나타낼 때 사용한다. 

 

3.2 특수시퀀스의 종류

  • \d: 모든 숫자와 일치한다. 예를 들어, \d는 '0', '1', '2', '3', .... , '9'와 매치된다.
  • \D: 숫자가 아닌 모든 문자와 일치한다. 
  • \s: 모든 공백 문자와 일치한다.
  • \S: 공백 문자가 아닌 모든 문자와 일치한다. 
  • \w: 문자, 숫자, 밑줄 문자와 일치한다.
  • \W: \w에 해당하지 않는 모든 문자와 일치한다. 

 

3.3 반복자란?

반복자는 특정 문자 또는 문자 집합이 몇 번 반복되어야 하는지 정의한다.

반복자를 사용하면, 동일한 문자 또는 패턴의 반복을 간결하게 표현할 수 있다. 

 

3.4 반복자의 종류

  • * : 바로 앞의 문자가 0회 이상 반복될 때 일치한다. 즉, 문자가 없거나 여러 번 있을 수 있다.
  • + : 바로 앞의 문자가 1회 이상 반복될 때 일치한다. 이는 적어도 한 번은 해당 문자가 있어야 한다는 것을 의미한다.
  • ? : 바로 앞의 문자가 0회 또는 1회 있을 때 일치한다. 이는 문자가 있거나 없을 수 있다는 것을 의미한다. 
  • {n} : 바로 앞의 문자가 정확히 n회 반복될 때 일치한다. 
  • {n, } : 바로 앞의 문자가 n회 이상 반복될 때 일치한다. 
  • {n, m} : 바로 앞의 문자가 최소 n회, 최대 m회 반복될 때 일치한다. 

 

3.5 예시

  • \d{2, 4} 는 숫자이면서 최소 2자리 최대 4자리의 연속된 숫자와 일치한다. 
  • \S+ 는 문자열 Hello World!가 있을 때 공백이 아닌 문자가 1회이상 연속되는 부분을 찾는다. 따라서 Hello와 World! 를 각각 별도로 찾아내어 일치시킨다. 

 

4. 적용 예시

 

법규위반 열 데이터 정제 : 문자열 탐색

# '법규위반' 열에서 '안전' 단어가 포함된 경우 찾기
pattern = r'안전'
train['법규위반_안전'] = train['법규위반'].str.contains(pattern)

display(train.head(3))

 

r'안전'에서 r은 raw string을 나타낸다. 

파이썬에서 raw string은 문자열 앞에 'r'을 붙여 표시하며 문자열 내에 특수 시퀀스(\s, \w, \등)가 특별한 처리없이 문자 그대로 취급하도록 한다. 

raw string을 사용하면 이스케이프 문자가 별도의 처리 없이도 정확히 인식되기 때문에 편리하게 사용할 수 있다. 

 

train['법규위반_안전'] = train['법규위반'].str.contains(pattern)은 train 데이터 프레임의 법규위반 열에서 각 값에 대해 패턴을 확인하고, 해당 패턴이 맞을 경우 True, 아닐 경우 False를 법규 위반_안전 열에 반환한다. 

 

즉, str.contains 메서드는 데이터 프레임의 각 행에서 지정된 패턴 또는 문자열이 존재하는지 여부를 확인하고, 이를 통해 불리언(참/거짓) 값을 생성한다.

 

 

도로형태 열 데이터 정제 : 값 대체

# '도로형태' 열에서 ' - ' 이후 문자열 제거
pattern = r'\s-\s.*'
train['도로형태_대분류'] = train['도로형태'].str.replace(pattern, '', regex=True)

display(train.head(3))

 

변수 pattern에 정의된 패턴은 공백(\s)과 하이픈(-), 공백(\s)을 포함한 뒤의 모든 문자(.)를 찾는 것을 목표로 한다. 

* 은 0회 이상 반복될 수 있다는 것을 의미한다. 

 

str.replace 메서드는 정규표현식을 사용하여 문자열에서 원하는 패턴을 찾아 다른 문자열로 치환할 수 있게 해주는 함수이다. 

코드는 pattern을 발견하면, 그 패턴에 해당하는 문자열을 제거('')한다. 

regex = True은 해당 패턴에서 정규 표현식을 사용한다는 의미이다. 

 

 

시군구 열 데이터 정제 : 캡처 그룹을 활용한 지역명 추출

 

캡처 그룹이란?

 

캡처 그룹(capture group)은 정규표현식 내에서 특정 부분을 하나의 단위로 묶기 위해 사용하는 기술이다. 

이를 통해 복잡한 문자열 패턴 내에서 특정 부분을 식별하고 추출하는 데 사용된다. 

각 캡처 그룹은 괄호 ()를 사용하여 정의되며, 정규표현식 내에서 하나 이상의 문자열을 그룹으로 묶을 수 있는데, 복수의 선택 사항 중 하나를 식별하고, 필요한 부분만을 추출할 수 있다. 

 

사용방법

r'()' 의 괄호 () 안에 여러 문자열 또는 패턴을 넣어 복수의 선택지 중에서 일치하는 요소를 찾을 수 있다. 

r'(창원 | 마산)' 캡처그룹은 '창원' 또는 '마산'과 일치하는 문자열을 찾는다. 

이러한 방식은 데이터에서 특정 키워드나 패턴을 필터링할 때 유용하다. 

또한, 캡처 그룹은 정규표현식 내에서 특정 부분의 반복을 지정하는 데에도 사용된다. 

예를 들어 r'(ab)+' 는 'ab', 'abab', 'ababab' ... 등 문자열이 한 번 이상 반복되는 경우와 일치한다. 

 

pattern = r'(남구|달서구)'

# '남구' 또는 '달서구'를 추출하고, 해당되지 않는 경우 '기타'로 표시
train['시군구_특정'] = train['시군구'].str.extract(pattern)
train['시군구_특정'] = train['시군구_특정'].fillna('기타')

display(train.head(3))

 

pattern = r '(남구 | 달서구)'

 

이 정규 표현식은 '남구' 또는 '달서구' 문자열을 찾기 위해 그루핑을 사용하였다. 

 

train['시군구_특정'] = train['시군구'].str.extract(pattern)

 

위 코드는 판다스(pandas)의 str.extract 메서드를 사용하여 시군구 열(columns)이 패턴(pattern)과 일치하는 부분을 추출한다. 

위의 코드를 실행한 결과, '시군구' 칼럼에 패턴에 해당하는 값이 존재하지 않을 경우 결측값이 반환된다. 

fillna 메서드를 사용하여 결측값을 모두 '기타'로 대체할 수 있다. 

 

 

 

사고일시 열 정제 : 연, 월, 일, 시간 추출

time_pattern = r'(\d{4})-(\d{2})-(\d{2}) (\d{2})'

train[['연', '월', '일', '시간']] = train['사고일시'].str.extract(time_pattern)
display(train.head(3))

 

time_pattern = r '(\d{4})-(\d{2})-(\d{2}) (\d{2})'

 

(\d{n})

이 패턴은 n자리의 숫자를 찾는데 사용된다.

여기서 \d는 숫자를 나타내고, {n}은 연속되는 숫자의 개수를 의미한다.

따라서 \d{4}는 4자리 숫자를 찾는 패턴이다. 

 

이를 활용하여, 각 자리의 값을 순서대로 찾는데 사용되는데, 각 숫자 그룹은 하이픈(-)과 공백() 을 통해 구분된다. 

 

train[['연', '월', '일', '시간']] = train['사고일시'].str.extract(time_pattern)

위 코드는 위에서 정의한 time_pattern을 이용하여 연, 월, 일, 시간 칼럼을 생성한다. 

특이한 점은 이전 스텝에서 str.extract 메서드를 사용했을 때와 달리 연, 월, 일, 시간 4개의 반환값을 가진다. 

 

이는 정규표현식에서 하이픈(-)을 제외한 \d{n} 형태가 각각 별도의 캡처 그룹으로 지정되기 때문이다. 

정규표현식의 각 캡처 그룹은 괄호 ()를 사용하여 정의되며, 이들은 매칭된 문자열의 특정 부분을 추출하는데 사용된다. 

str.extract 메서드는 이러한 캡처 그룹에 해당하는 각 부분을 별도의 칼럼으로 반환하므로, 여기서는 총 네 개의 칼럼(연, 월, 일, 시간)이 생성된다. 

진짜 많이 놀았다.

이번에 친구들이랑 간 계곡 여행 너무 재밌었다.. 다시 또 가고싶네

계곡 여행 생각하니 이번 여행 갔던 거 사진 정리도 할 겸 한 번 올리고 싶어졌다!

단체사진 1

 

이 단체사진은 전부 다 잘 나온거 같다 굳

 

 

단체사진 2

 

ㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋ 왜 이렇게 피곤해보이냐 다

저 브이 포즈는 조금 없애고 싶긴 하네.. 다른 포즈를 조금 연구해와야겠다!

 

이외에도 각자 베스트짤이라고 하면

 

수영장파티 숭코
정예해군
팔굽혀펴기 장인과 물개
'코'
느낌 on

 

이외에도 많은 짤이있지만 추억회상은 여기까지 하는 걸로 하고

 

이렇게 많이 놀아서 너무 좋았는데 앞으로 내 블로그에 자주 놀러오는 쿵쿵따님이랑 같이 놀러 간 것도 올려야겠다. 진짜 이 글 쓰면서 느끼는 건데 사진을 많이 찍어야겠다고 생각이 드는게 사진을 보면서 추억을 회상할 때 나도 모르게 입가에 미소가... 지어질 때가 있는거 같다 ㅋㅋㅋㅋㅋㅋㅋ 

 

어쨌든! 정말 재밌었는데!

 

이번 여름 방학이 다 끝나간다... 

 

여름방학동안 뭐했냐! 라고 물어보면 이것저것 많이 만져본 거 같기는 하다. 

혼자 공부하는 머신러닝 + 딥러닝 2회독, 책 4권 정도 읽은 거 같고 영어 회화도 꾸준히 하고 블로그도 나름 열심히 쓰고 한 거 같은데.... 그런데! 아쉽다. 그것도 많이. 

 

왜냐면 게임을 조금 많이 해서 그런거 같다. 학기 마무리되고 진짜 고생한 거 같아서 보상심리로 그렇게 한 거 같은데..

너무 많이 한 게 패착이다. 

그래서 앞으로 게임을 조금 줄이기로 했다. 

2학기도 곧 시작하고 데이터 분석 동아리도 열심히 해야 하니깐!

 

그런데 이런 다짐 작년 겨울방학 끝날 때 쯤에도 그랬던 거 같은데 ㅋㅋ

 

다짐할 때는 언제나 장엄하다. 그러니 이번에는 지킬 수 있도록 하자!

 

2학기도 고생할 나를 위해 한 잔, 2학기도 고생할 친구들과 쿵쿵따를 위해 한 잔,

앞으로의 미래를 걱정할 사람들을 위해 같이 힘내보자는 의미에서 한 잔.. 

 

파이팅~!

 

 

 

'일상 > 일기' 카테고리의 다른 글

요즘 근황(24.09.23)  (2) 2024.09.23
24.08.30 - 24.09.01 서울여행  (7) 2024.09.16
오랜만에 일기  (0) 2024.04.02
24년도 새해목표  (0) 2024.01.26
24.01.26  (0) 2024.01.26

1. 로지스틱 회귀분석 개념

1.1. 로지스틱 회귀분석이란?

로지스틱 회귀분석은 20세기 초에 발전한 통계방법입니다. 이 모델은 로지스틱 함수에서 이진 분류 문제를 풀기위해 발전되었습니다. 이 모델은 주로 예/아니오, 성공/실패와 같이 두 가지 범주로 결과가 나뉘는 경우에 사용됩니다. 로지스틱 회귀분석의 핵심 개념은 다음과 같습니다.

  • 확률 추정: 로지스틱 회귀는 주어진 데이터가 특정 클래스에 속할 확률을 추정합니다. 이 확률은 0과 1 사이의 값으로, 예측된 확률이 특정 임계값(보통 0.5) 이상이면 하나의 클래스로, 이하면 다른 클래스로 분류됩니다.
  • 시그모이드 함수: 로지스틱 회귀는 시그모이드 함수(또는 로지스틱 함수)를 사용하여 입력 데이터의 선형 조합을 0과 1 사이의 확률 값으로 변환합니다. 시그모이드 함수는 S자 형태의 곡선을 그리며, 이 함수는 선형 조합의 결과를 확률로 매핑합니다.
  • 최대 우도 추정: 로지스틱 회귀 모델은 최대 우도 추정(Maximum Likelihood Estimation, MLE) 방법을 사용하여 모델 파라미터를 추정합니다. 이는 주어진 데이터에 대해 관측된 결과의 확률을 최대화하는 파라미터 값을 찾는 과정입니다.
  • 이진 분류: 로지스틱 회귀는 기본적으로 이진 분류를 위해 설계되었지만, 원-대-다(One-vs-Rest) 방식이나 원-대-원(One-vs-One) 방식을 통해 다중 클래스 분류 문제에도 적용될 수 있습니다.

1.2. 언제 사용하면 좋을까요?

로지스틱 회귀분석은 주로 이진 분류(Binary Classification) 문제를 해결하기 위해 사용됩니다. 이는 결과가 두 가지 범주(예: 예/아니오, 성공/실패) 중 하나로 나누어지는 경우에 적합합니다. 주로 데이터 수가 많지 않은 경우 간단한 모델이 필요할 때 사용합니다. 또한, 분석결과에 대한 설명과 해석이 중요할 때 사용하면 좋습니다.

1.3. 장점

  • 해석 용이성: 로지스틱 회귀 모델은 결과를 해석하기 쉽습니다. 각 특성의 가중치를 분석하여 어떤 특성이 결과에 더 큰 영향을 미치는지 이해할 수 있습니다.
  • 확률 추정: 결과의 확률을 제공하여, 단순한 분류뿐만 아니라 결과의 불확실성을 평가할 수 있습니다.
  • 유연성: 다른 회귀 모델과 마찬가지로 다양한 유형의 데이터에 적용할 수 있으며, 커널 방법 등을 사용해 비선형 관계를 모델링할 수도 있습니다.

1.4. 한계점

  • 비선형 관계의 제한적 모델링: 로지스틱 회귀는 기본적으로 선형 관계를 가정합니다. 복잡한 비선형 관계를 모델링하기 위해서는 추가적인 기법이 필요합니다.
  • 특성 선택의 중요성: 중요하지 않거나 상관관계가 높은 특성이 포함되어 있으면 모델의 성능이 저하될 수 있습니다.
  • 과적합의 위험성: 특성의 수가 많거나 모델이 복잡할 경우 과적합(Overfitting)이 발생할 수 있으며, 이를 피하기 위해 적절한 규제가 필요합니다.

 

2. 로지스틱 회귀분석 이론

오즈(Odds): 특정 사건이 발생할 확률과 그 사건이 발생하지 않을 확률 간의 비율 입니다.

예를 들어, 어떤 사건의 발생 확률이 0.75라고 가정해 봅시다. 이 경우, 이 사건이 발생하지 않을 확률은 0.25가 됩니다. 그러면 이 사건의 오즈는 다음과 같이 계산됩니다. 이것은 사건이 발생할 확률이 발생하지 않을 확률보다 3배 높다는 것을 의미합니다.

로그 변환: 로지스틱 회귀에서는 종속 변수의 로그 오즈(log odds)를 독립 변수들의 선형 조합으로 모델링합니다. 즉, 로지스틱 회귀는 확률을 직접 모델링하지 않고, 오즈를 로그 변환하여 사용합니다. 오즈는 0이상의 값만 존재하지만, 로그변환을 하면 값의 범위가 실수 전체로 확장되어, 종속변수와 독립 변수 사이의 관계를 선형방정식으로 표현할 수 있습니다. 로그 오즈는 다음과 같이 정의됩니다.

이 식에서 각각의 요소는 다음과 같은 의미를 갖습니다

  • , , , ..., 은 모델의 계수(가중치) 입니다. 이들은 각 독립 변수가 종속 변수에 미치는 영향의 크기를 나타냅니다.
  • , ,... ,Xn  독립 변수(설명 변수) 입니다. 이들은 분석 대상이 되는 데이터의 특성을 나타냅니다.

위 식을 P(Y=1)에 대해 정리하면 아래와 같습니다.

위 식은 시그모이드 함수와 같은 형태입니다. 데이터의 독립 변수들을 이용하여 하나의 선형 값 z를 계산합니다. 그리고 0과 1 사이의 값(확률)으로 변환합니다.

로지스틱 회귀에서 시그모이드 함수는 입력 데이터의 선형 조합을 확률 값으로 변환하는 데 사용됩니다. 예를 들어, 로지스틱 회귀 모델에서는 데이터의 특성과 가중치의 선형 조합을 계산한 다음, 이 값을 시그모이드 함수의 입력으로 사용하여 0과 1 사이의 값을 얻습니다. 이 값은 특정 클래스에 속할 확률로 해석됩니다. 식으로 표현하면 아래와 같습니다.

위 수식을 그래프로 표현하면 아래와 같습니다.

  • 빨간 점: 실제 데이터
  • 파란색 선: 로지스틱 회귀모델

 

3. LogisticRegression() 매개변수

penalty 정규화 종류. 'l1', 'l2', 'elasticnet', 'none' 중 선택. 기본값은 'l2'.
dual 이중 또는 원시 방법 선택. 기본값은 False.
tol 최적화 중단을 위한 허용 오차. 기본값은 1e-4.
C 정규화 강도의 역수. 값이 작을수록 강한 정규화. 기본값은 1.0.
fit_intercept 모델에 절편(상수 항) 포함 여부. 기본값은 True.
intercept_scaling 절편에 적용되는 스케일링 팩터. fit_intercept가 True일 때 사용.
class_weight 클래스 불균형을 처리하기 위한 가중치. 기본값은 None.
random_state 난수 발생기 시드. 결과 재현성을 위함.
solver 최적화 문제를 해결하기 위한 알고리즘. 'newton-cg', 'lbfgs', 'liblinear', 'sag', 'saga' 등 선택 가능.
max_iter 최적화를 위한 최대 반복 횟수. 기본값은 100.
multi_class 다중 클래스 분류 전략. 'auto', 'ovr', 'multinomial' 중 선택.
verbose 로그 출력 상세도.
warm_start 이전 호출의 솔루션을 재사용하여 피팅을 초기화 여부. 기본값은 False.
n_jobs 병렬 처리를 위한 CPU 코어 수. 기본값은 None (1개 코어 사용).

 

예시

model = LogisticRegression(penalty='l2',       # L2 정규화 사용
                           C=0.5,              # 정규화 강도 (낮을수록 강한 정규화)
                           fit_intercept=True, # 절편을 포함
                           random_state=42,    # 결과 재현을 위한 난수 시드
                           solver='lbfgs',     # 최적화를 위한 알고리즘
                           max_iter=100,       # 최대 반복 횟수
                           multi_class='auto', # 다중 클래스 처리 방식
                           verbose=0,          # 로그 출력 정도 (0은 출력하지 않음)
                           n_jobs=1           # 사용할 CPU 코어 수 (1은 하나의 코어 사용)
)

 

 

4. 파이썬 예제코드

# 데이터 셋 준비
X, y = make_classification(n_features=1, n_samples=300,n_redundant=0, n_informative=1,
                            n_clusters_per_class=1, class_sep=0.5,random_state=7)

X.shape, y.shape

 

make_classifications 함수는 Scikit-learn의 데이터셋 생성 도구로 연습용 데이터셋을 생성한다.  

 

파라미터 설명

  • n_features = 1: 독립 변수(특성)의 수를 1로 설정
  • n_samples = 300: 샘플(데이터 포인트)의 총 개수를 300으로 설정
  • n_redundant = 0: 중복되는(불필요한) 특성의 수를 0으로 설정
  • n_informative = 1: 유익한(목표 변수와 관계 있는) 특성의 수를 1로 설정
  • n_clusters_per_class = 1: 각 클래스별 클러스터의 수를 1로 설정. 이는 각 클래스가 하나의 밀집된 클러스터로 구성되어 있음을 의미한다.  
  • class_sep = 0.5: 클래스 간 분리 정도를 설정한다. 값이 클수록 클래스 간의 분리가 뚜렷해진다. 
  • random_state = 0: 결과의 재현 가능성을 위해 랜덤 상태(seed)를 0으로 고정한다. 

 

로지스틱 회귀분석 결과 해석

import statsmodels.api as sm

X_con = sm.add_constant(X) # 상수항 추가
sm_model = sm.Logit(y, X_con) # 모델 생성
result = sm_model.fit() # 모델 학습
print(result.summary()) # 결과 확인

 

Dep.Variable: 종속 변수 Y

No.Observations: 분석에 사용된 관측치의 수

Df Residuals: 잔차의 자유도는 97

Method: 모델 최적화 방법으로 사용된 방법은 MLE(Maximum Likelihood Estimation)

Pseudo R-squ: 이 모델이 데이터에 대해 어느 정도 설명력을 가지고 있는지 나타낸다. 높을수록 모델이 데이터에 대해 더 높은 설명력을 가진다고 할 수 있음.

Log-Likelihood: 로그 우도 값은 -50.00

LL-Null: 모델 없이(상수항만 있는 경우)로그 우도 값은 -100.00

LLR p-value: 로그 우도 비 테스트의 p-값은 1.000e-10로, 모델이 통계적으로 유의미함을 의미.

 

 

우도(Likelihood) 

: 우도는 주어진 모델 매개변수에서 관측된 데이터가 나타낼 확률을 의미한다. 로지스틱 회귀에서는 관측된 데이터가 주어진 매개변수(예: 회귀 계수)에 대해 나타날 가능성을 수치적으로 나타낸다. 

베타값에서 관측치 y가 나타날 조건부 확률이다. 

 

 

로그 우도(Log-Likelihood)

 우도의 로그 값을 취하는 이유는 여러가지이다. 

 첫째, 로그를 취하면 수치적 안정성이 증가한다. 우도는 확률의 곱셈으로 계산되기 때문에 매우 작은 숫자가 될 수 있으며, 이는 컴퓨터에서의 계산에서 부정확성을 야기할 수 있다. 로그를 취하면 곱셈이 합셈으로 변환되어 이러한 문제를 완화한다. 

 둘째, 로그를 취하면 최적화 문제를 해결하기가 수학적으로 더 쉬워진다. 즉, 최대 우도를 찾는 문제가 더 단순한 형태로 변환된다. 

 Log-Likelihood 값은 높을수록 좋다. 높은 값은 모델이 데이터를 더 잘 설명하고 있음을 의미한다.

제너레이터는 딥러닝에서 학습용 데이터의 Batch를 만들 때 많이 사용된다.  

제너레이터를 이해하기 위해서는 다음과 같은 함수를 먼저 소개한다.  

시작할 때 print를 이용하여 메시지를 출력하고, 0부터 4까지 각 값의 제곱을 val이라는 리스트에 추가하여 반환해주는 함수이다.  

def method():
	print("Start method()")
    val = []
    for x in range(0, 5):
    	val.append( x**2 )
   	return val

 

그러나 Return 키워드를 사용한 코드에는 성능 문제가 있다.  

만약에 range(0, 10000) 같이 범위가 매우 커지면, 메모리 공간도 부족하고 성능도 저하된다.  

 

out = method()
for i in range(0, 5):
	print(out[i])

 

out = method() 가 실행되는 순간 for문을 돌고 나온 후 리스트가 반환된다.  

다음과 같이 출력값이 나온다.  

# Start method()
# 0
# 1
# 4
# 9
# 16

 

제너레이터는 이와 같은 메모리 문제와 성능 저하 문제를 해결해줄 수 있다.  

Yield 키워드를 사용하여 제너레이터를 이용할 수 있다.  

def generator():
	print("Start generator()")
    for x in range(0, 5):
    	yield x**2

 

방금 전 살펴보았던 method()와는 다르게 다음과 같이 generator()를 실행해도 메시지가 출력되지는 않는다.  

gen = generator()

 

계산 부분이 아직 실행되지 않은 채로 제너레이터가 선언만 되어 있는 상태이다.  

다음과 같이 next()를 사용해야 실제 계산이 실행된다. 

for i in range(0, 5):
	print(next(gen))

 

next를 호출할 때마다 yield까지만 실행이 된다.  

그러므로 메모리 공간도 아낄 수 있고 성능 저하도 막을 수 있다.  

 

 

'프로그래밍 > Python' 카테고리의 다른 글

Python - Closure 함수  (0) 2023.12.15
Python - 클래스 속성과 메서드 사용  (2) 2023.11.25
Python - 인스턴스 변수 vs 정적변수  (0) 2023.11.25
Python - 클래스 생성자  (2) 2023.11.25
Python - 클래스  (1) 2023.11.25

7-1 인공 신경망.ipynb
0.07MB
7-2 심층 신경망.ipynb
0.03MB
7-3 신경망 모델 훈련.ipynb
0.24MB

'프로그래밍 > 머신러닝' 카테고리의 다른 글

LightGBM  (1) 2024.09.04
정규 표현식 (Regular Expression)  (0) 2024.08.23
로지스틱 회귀분석  (0) 2024.08.13
혼자 공부하는 머신러닝 + 딥러닝(머신러닝)  (0) 2024.07.19

 

 이 책은 굉장히 오래된 책이다. 

 그럼에도 불구하고 아직도 사람들이 찾는 이유가 뭘까? 이 책을 읽으면서 알게 되었는데, 일단 주식 투자에 대해 어떤 가치관과 사고관을 가져야하는지 알려주는 책이다. 요즘같이 정보의 홍수시대 속에서는 소위 말해 경제 전문가, 투자 전문가의 말에 사람들의 의견이 휩쓸리기 쉽다. 이럴 때일수록 정보가 아닌 그 속에 있는 알맹이를 보는 것이 더 중요하다.

 이 책의 1부에서 나한테 가장 와닿았던 것은 '주식의 단기 등락을 무시하라.'는 것이었다. 나는 아침에 한 번, 점심에 한 번, 3시에 한 번 현재 주가 차트를 보는 습관이 있다. 오르는 날의 하루는 굉장히 기분 좋게 시작하고, 내리는 날의 하루는 무언가 찝찝한 느낌으로 하루를 시작한다. 바로 이러한 느낌이 들지 않도록 주식의 단기 등락을 무시하라는 것인데, 이 책에서 말하기를 가치가 있는 주식은 언젠가 오르게 된다는 것이다. 그런데 이걸 누가 모르겠나 다 아는 사실이지. 그런데 모두가 다 알면서도 하지 않는 것이 현실이다. 그렇기 때문에 나는 이 말을 앞으로 주식에서 관철해 나갈 것이다. 

 그리고 또 하나 인상깊었던 구절은 대기업은 움직임이 둔하다는 것이다. 이게 진짜 맞는 말인게 내가 삼성전자를 조금 가지고 있는데 누구나 알다시피 삼성전자는 전세계가 알아주는 대기업이다. 그런데 이렇게 큰 대기업의 주식을 아무리 좋은 가격에 산다고해도 2년 안에 대박을 터트리는 것은 거의 불가능하다. 왜냐하면 성장이 어느 정도 안정화된 상태이기에 빠르게 성장할 수 있는 기업이 아니기 때문이다. 이 점은 동의한다. 그래서 이 책에서는 '다른 조건이 같다면, 소형주에 투자해야 유리하다.'라고 한다. 하지만, 우리나라의 경우 소형주에 잘못 투자하면 상장 폐지가 되어 돈을 한순간에 다 잃을 수 있기에 이 구절은 조금 비판적으로 읽어야한다고 생각한다. 

 

 책 자체가 약간 전문적인 느낌으로 투자를 할 때 이렇게 하세요, 저렇게 하세요 느낌보다는 어떤 마음가짐으로 시작하는 것이 좋은지에 대해 알려주고 있다. 그런데 나는 이 책이 조금 아쉬운 점이 이 책에서 전달하는 지식이 현재의 주식시장에 비해 비교적 변동성이 낮은 과거의 주식시장을 기준으로 말하기에 이것을 현재의 주식 시장에 적용되는지는 의문이다. 그렇지만 주식을 입문하기 전에 가볍게 읽기에는 좋은 책이라고 생각해서 주식을 이제 시작하려고 하는 사람들한테 강력하게 추천한다. 

 

1-3 마켓과 머신러닝.ipynb
0.05MB
2-1 훈련 세트와 테스트 세트 240701.ipynb
0.07MB
2-2 데이터 전처리 240701.ipynb
0.29MB
3-1 k-최근접 이웃 회귀.ipynb
0.03MB
3-2 선형 회귀.ipynb
0.11MB
3-3 특성 공학과 규제.ipynb
0.08MB
4-1 로지스틱 회귀.ipynb
0.06MB
4-2 확률적 경사 하강법.ipynb
0.11MB
5-1 결정 트리.ipynb
0.72MB
5-2 교차검증과 그리드서치.ipynb
0.77MB
5-3 트리의 앙상블.ipynb
1.43MB
6-1 군집 알고리즘.ipynb
1.06MB
6-2 k-평균.ipynb
1.75MB
6-3 주성분 분석.ipynb
3.78MB

 

 

위의 내용은 7월 2주동안 공부한 내용인데

원래 한 달안에 끝내는 마음으로 이 책을 시작했는데, 너무 내용을 쉽게 풀어서 써줘서 생각보다 빨리 끝날 것 같다.  

이 책이 진짜 쉽게 설명한 만큼 내용이 깊지는 않은데

추후에 깊게 공부하기 위해 전반적인 내용을 훑어본다는 느낌으로 공부하면 좋을 것 같다. 

 

딥러닝 파트도 끝나면 정리해서 올려야겠다. 

(내용은 모두 혼자 공부하는 머신러닝 + 딥러닝을 기반으로 작성되었다.)

'프로그래밍 > 머신러닝' 카테고리의 다른 글

LightGBM  (1) 2024.09.04
정규 표현식 (Regular Expression)  (0) 2024.08.23
로지스틱 회귀분석  (0) 2024.08.13
혼자 공부하는 머신러닝 + 딥러닝(딥러닝)  (0) 2024.08.08

 

 

메모리 반도체

메모리 반도체: 데이터를 기록하고(쓰고) 필요할 때 꺼내는(읽는)  즉, 가장 기본적인 역할을 담당하는 반도체

 

메모리 반도체 종류 

램(Random-Access Memory) D램: 구조가 단순, 생산성 좋음, 성능 좋음
S램: 속도가 빠름.

용량이 작음. 
전원이 꺼지면 데이터가 휘발됨.
롬(Read-only memory) 전원이 꺼져도 데이터가 휘발되지 않음.
용령이 큼.
수정은 불가능.

>> 그런데 수정할 수 있게 개발된 것이 낸드플래시 

 

HBM : D램들을 탑처럼 쌓아올린 메모리 반도체 

  • 면적당 기억능력 상승, 전력 소모 감소, 데이터 전송 속도 증가 

 

보통 반도체를 구성하는 소자들은 구리 배선, 즉, 와이어를 이용해 연결하는데 직관적이고 간편한 방법이지만 반도체 구조가 복잡할수록 와이어가 너무 많아져 서로 간섭하거나 물리적으로 연결할 공간이 부족해진다. 

하여 와이어를 없애고 소자들에 구멍을 뚫은 다음 구리를 충전, 즉 흘려넣음으로써 연결하는 방식이 개발됨. 

이것이 TSV(Through Silicon Via).

 

TSV는 소자와의 접촉면이 와이어보다 넓은만큼 전력공급이 효율적이고 신호전달이 빠르다.

(전력소모 감소, 데이터 전송 속도 증가)

또한, 소자를 안정적으로 쌇을  수 있어 집적도도 상승한다. 

 

 

시스템 반도체

시스템 반도체: 데이터를 계산하고 이해하는 반도체

ex) CPU(컴퓨터), AP(스마트폰, 스마트워치)

 

CPU연산

  • 직렬연산
  • 따라서 연산이 多. 아무리 똑똑한 CPU라도 속도 감소할 수 밖에 없음. 

GPU연산

  • 병렬연산
  • 동시에 수천, 수만 번의 연산을 수행하는 만큼 속도면에서 용이 

 

PIM(Processing In Memory)

  • 메모리 반도체 + 시스템 반도체 (연산하는 기억장치)
  • 메모리 반도체가 일부 연산을 수행한 다음 데이터를 넘기므로, CPU로서는 그만큼 빨리 나머지 연산을 마칠 수 있다. 
  • 그만큼 전력 소모도 감소하고, 발열도 줄어든다.
  • 빅데이터 처리와 딥러닝에 최적화되어있다. 

 

 

 

펩리스(fabrication less) : 반도체 설계 분야 

 

파운드리 (foundry) : 설계도, 반도체 생산 분야 

 

반도체를 단순히 생산한다고해서 모두 파운드리인 것은 아니다.

가령 자체적으로 설계한 반도체를 스스로 생산하는 것은 파운드리가 아니다. 

파운드리는 외부 펩리스에 주문을 받아 위탁 생산을 하는 것을 말한다. 

 

IDM(Integrated Deduce Manufacturer): 펩리스이자 파운드리인 기업 

 

반도체 제조장비 회사 >> ASML, ASM(네덜란드) / 어플라이드 머티리얼스(미국) / 도쿄 일렉트론(일본)

 

 

시장 점유율 (2023년 기준)

D램 시장 점유율: 삼전 > 하이닉스 > 마이크론 

낸드플래시 시장 점유율: 삼전> 하이닉스 > 키오시아 >= WDC > 마이크론

시스템 반도체 나라별 시장 점유율 : 미국 > 유럽 > 타이완 > 일본 > 중국 > 한국

파운드리 시장 점유율 : TSMC > 삼전 > UMC > 글로벌 파운드리 > SMIC

팹리스 시장 점유율 : 미국 > 타이완 > 중국 > 일본 > 한국 

 

 

반도체 생산과정

- 웨이퍼 제조

- 산화

- 포토: 반도체 소자의 회로를 웨이퍼에 새기는 공정 

  • 웨이퍼 위에 빛에 반응하는 감광색을 얇게 바르고
  • 회로가 인쇄된 투명한 유리인 마스크를 올린다. 
  • 빛을 쏘면 감광액 반응이 일어남. 
  • 웨이퍼에 양각(회로가 인쇄된 마스크)이나 음각(회로의 영역이 인쇄된 마스크)으로 회로가 새겨짐. 
  • 이걸 하는 것이 노광장비

노광장비(EUV)를 제일 잘하는 회사가 호주의 ASML이다. 

포토공정에서 가장 중요한 것이 빛의 회절 정도를 줄이는 것이 관건인데 파장이 짧은 빛을 사용하면 된다. 

(끼고 돌아 구부러지는 각도가 작아지기 때문)

(파장의 길이는 빛의 에너지와 반비례한다.)

 

- 식각

- 증착

- 금속 

- 배선 

- 패키징: 반도체 포장 공정 

  • 물리적, 화학적 충격에서 완벽하게 보호 및 발열 최소화.
  • 전력공급과 신호전달이 더욱 효과적으로 이루어지도록 보호한다. 

 

검은색 사각형, EMC(Epoxy Mold Compound) - 포장지 

EMC안에 반도체의 진짜 알맹이인 각종 소자가 복잡하게 조립되어 있음.

 

금속 와이어, 리드 프레임(Lead Frame)

반도체를 기판과 단단히 연결하는 동시에 전력을 공급한다. 

 

FOPLP, FOWLP

삼성전자 >> FOPLP(Fan - Out - Panel - Level - Packaging, 사각형 패널) 

TSMC >> FOWLP(Fan - Out - Wafer - Level - Packaging, 둥근 웨이퍼)

 

FOWLP

 

'다이(die)' - 패키징 공정을 거치지 않은 반도체.

이것이 아직 웨이퍼 위에 있는 채로 '몰딩'(다이를 에폭시로 감싸주는 과정).

이 과정에서 몰딩 소재를 웨이퍼 크기만큼 펴 바르게 되는데, 그러면서 다이를 몰딩 소재 위로 옮기고 웨이퍼를 제거 이후 나머지 작업 (재배선과 솔더볼 설치, 반도체별 절단)을 계속해 반도체 완성. 

 

웨이퍼를 제거하는 만큼 반도체의 두께와 부피를 크게 줄일 수 있고 발열도 최소화가 가능하다.

반도체가(FOPLP 채널 내부에 포함된 패널을 거치지 않고) 전자장치의 기판과 곧바로 연결되므로, 전력공급과 신호 전달 효율 상승

 

대신 생산량에 손해를 본다.

둥그런 웨이퍼 위에 네모난 반도체를 잔뜩 올려놓으면 테두리를 따라 '데드 존', 즉 버려지는 공간이 생길 수 밖에 없다. 

 

 

FOPLP

 

웨이퍼에서 다이를 떼어낸 다음, 그 크기에 맞춰 뚫어놓은 페널의 네모난 구멍 속에 넣고 몰딩과 나머지 작업을 진행한다. 

패널을 이용하므로 반도체 안에 또 하나의 작은 기판을 설치하는 셈이다. 

데드존이 거의 없다. 

생산량이 좋다. 

 

대신 열을 받으면 휘어진다. 

CPU나 AP처럼 연산과정에서 열을 많이 내는 반도체에는 FOPLP 적용을 하지 않는다. 

 

 

 

 

소재

솔더: 반도체 소자를 접합할 때 사용되는 합금 (다무라, 센주금속공업)

 

반도체는 실리콘으로 만든 원판인 웨이퍼에 설계도를 새기고 깎은 다음 소자를 설치해 만든다. 

(포토레지스트 - 설계도를 새길 때 / 불화수소 - 깎을 때 / 폴라이미트 - 소자의 보호막으로서 소자를 설치할 때)

 

 

유기소재는 무기소재보다 전기이동도가 매우 떨어진다. 

 

2차원소재 (ex - 그래핀) 

  • 원자 하나 정도의 아주 얇은 두께
  • 전기금속 칼코겐 화합물 (TMD), 비정질 질화붕소(aBN) : 유전율이 낮아서 전류가 잘 흐름. 

 

 

 

반도체는 트랜지스터로 구성됨. 

반도체는 전자의 흐름을 제어하는 트랜지스터로 구성됨. (트랜지스터는 모스펫으로 만들어짐.)

트랜지스터: 게이트(gate), 채널(channel), 소스(Source), 드레인(drain)

 

소스에 전압을 가해주면 전자가 채널이라는 통로로 흐른다. 흘러서 도착하는 곳이 드레인. 

여기서 전자의 흐름을 제어한다는 점에서 게이트를 '문'에 전자가 다니는 길이라는 점에서 채널을 '통로'에 비유 

 

여기서 전자가 이동하는 거리, 즉 게이트의 폭이자 채널의 길이가 몇 나노인지를 결정한다. 

 

나노 미세화에 열을 올리는 이유

> 거리가 짧아지면 트랜지스터 크기는 작아지고 트랜지스터 크기가 작아지니 하나의 반도체 안에 더 많이 집적할 수 있고 그러면 전자가 더 빨리 이동할 수 있고 데이터 처리 속도는 향상되며 전력소모는 줄어든다. 그렇게 해서 성능이 올라가기 때문에 대기업들이 나노 미세화에 열을 올리는 중이다.

 

터널 효과

반도체는 기본적으로 전자의 흐름을 제어하는 장치이다.

그런데 반도체가 너무 작아지면 전자가 통로, 즉 채널을 뚫고 엉뚱한 곳으로 이동할 수 있다. 

거시세계가 아닌 미시세계의 물리법칙인 양자역학에 영향을 받기 때문이다. 

이를 터널효과(터널링)이라고 한다. 

이것을 방지하거나 활용하면 반도체는 좀 더 효율적으로 전자의 흐름을 제어할 수 있다. 

그렇게 해서 제시된 해결방안이 '채널의 길이는 짧게 유지하되, 게이트와 닿는 면의 개수를 늘려보자'

 

핀펫(닿는 면이 세 개) - 인텔(2010년대 초반)

GAA(닿는 면이 네 개) - 삼성전자

 

7나노 반도체까지는 핀펫 OK, 하지만 그 이하로는 다른 구조가 필요하다. (그래서 나온 것이 삼성전자의 GAA)

 

2022년 6월 삼성전자는 GAA로 3나노 반도체 양산을 세계최초로 성공했다. 

 

 

 

2차전지 

반도체와 2차전지는 완전히 구분되는 분야가 아니다.

전기자동차에 쓰이는 고성능 2차전지에는 제어장치의 일부로 반드시 반도체가 들어간다.

 

2차전지는 리튬이온이 양극재와 음극재 사이를 오가며 전기를 충전하고 방출한다. 

이때 양극재와 음극재의 사이에서 리튬이온의 통로가 되는 것이 전해질, 2차전지의 전해질은 액체다. 

액체는 그런데 물리적으로 불안정하다.

반면에 전고체 배터리는 말 그대로 전해질이 고체이다. 따라서 안정적이고 기존의 2차전지보다 에너지 효율도 좋다. 

 

소재 비율이 어떻게 되느냐에 따라 배터리의 효율이 결정된다. 

 

배터리 개발이 비싼 이유는 리튬이 채굴과 가공이 쉽지 않기 때문이다. 

 

배터리 생산량이 증가하면 원가가 절감되고, 배터리 성능이 또 증가하면 가격이 줄어든다. 

그러면 전기자동차가 싸진다. (배터리가 차지하는 비율이 40% 이상이기 때문이다.)

 

LFP배터리(리튬, 철, 인산)이 3000사이클까지 가능한데 이것이 대부분 중국제이다. (31% 차지)

 

 

딥러닝

딥러닝은 인간의 뉴런과 시냅스의 작동 방식을 모방한 '인공신경망' 방식의 알고리즘으로 빅데이터를 분석한다.

 

입력층, 은닉층, 출력층으로 구성된다. 

 

핵심은 은닉층의 층수와 각 층에서 연산을 수행하는 '노드'의 수이다.

 

즉, 은닉층의 층수가 많고 각 층의 노드가 많을수록 입력층에서 투입된 데이터가 출력층을 향해가는 과정에서 거치는 연산과정이 기하급수적으로 증가한다. (각 노드는 이전 층의 모든 노드의 결괏값을 연산한다.)

 

NPU(Neural Processing Unit) : 딥러닝, 또는 머신러닝에 특화된 인공지능 반도체를 ANN방식의 알고리즘을 지원한다. 

 

 

구글 딥마인드

- 알파폴드 

  > 단백질의 2차원구조(아미노산들의 염기서열)로 먼저 그려본 다음, 이것들을 보아 최종적으로 3차원구조로 형성.

 

- 로제타 폴드

  > 2차원구조와 3차원구조를 동시에 만들어 비교하면서 완성도를 끌어올림. 

 

 

구글 인공지능 PaLM(Pathway, Language Model)

언어모델: 인간의 언어를 이해할 수 있는 인공지능, 텍스트로 구성된 대량의 데이터를 학습해 인간과 소통한다. 

 

PaLM은 정말 필요한 데이터 위주로만 학습한다.

딥러닝 성능을 크게 높여 빅데이터가 아닌 스몰데이터 만으로도 충분한 성능을 발휘할 수 있도록 설계됨. 

 

 

 

클라우드

클라우드는 따로 서버가 필요하지 않다. 광대한 네트워크 자체를 가상화된 서버로 사용한다. 물론 그 네트워크를 유지하기 위해 물리적인 서버가 필요하긴 하지만, 그 개수를 크게 줄이는 것이 가능하다. 

 

클라우드에 인공지능 반도체가 필요한 이유

  • 클라우드에는 막대한 데이터가 여기저기에 분산되어 있음.
  • 이 중 사용자가 원하는 것을 재빨리 찾아줘야 함.
  • 작업내용을 실시간으로 백업, 훗날을 위해 잘 보이는 곳에 쌓아두기
  • 이는 병렬 연산에 특화된 GPU가 잘할 수 있는 일들이다. 
  • 그런데 사용자와 데이터가 많아지면서 더욱 고성능의 인공지능 반도체가 필요해졌다.
  • 게다가 인공지능 반도체는 효율이 매우 좋아 전력도 적게 소모한다. 
  • 클라우드 서비스를 제공하는 기업들이 반도체를 자체 개발하는 이유가 바로 이것이다. 

 

 

 

컴퓨터 비전: 인공지능이 얼마나 정확하게 시각정보를 인식하는지

BCI(Brain Computer Interface): 인공지능이 인간의 뇌와 곧바로 연결되어 상호작용

 

 

 

로봇 

로봇의 핵심부품

: 구동용 부품(서보모터, 감속기 등), 제어용 부품(컨트롤러 등), 구조용 부품(엔드 이펙터 등), 센서 

 

로봇산업은 반도체 산업만큼이나 보수적이다.

반도체 기업들이 불화수소 같은 소재의 공급처를 쉽게 바꾸지 않으려고 하는 것처럼, 로봇 기업들도 중요부품의 공급처를 잘 바꾸려 하지 않는다. 

 

 

 

전장 반도체 

전장 반도체: 자동차에 들어가는 각종 전자 장치에 쓰이는 반도체 

 

전장 반도체는 그 쓰임에 따라 여러 종류로 구분된다. 

 

 

아날로그 반도체: 아날로그 신호를 디지털 신호로 바꿔주는 반도체 

  • 빛, 소리, 압력, 온도 같은 것들을 전자장치가 이해할 수 있는 디지털 신호, 즉, 0과 1의 조합(기계어)으로 변환하는 것.
  • 가령 자율주행 자동차는 주행 중에 사방이 무엇이 있는지, 자신의 위치가 어디인지, 얼마나 빠르게 달리고 있는지 등을 실시간으로 파악해야한다. 
  • 이때 세상의 무수한 아날로그 신호를 순식간에 디지털 신호로 바꿔주는 기계어 전문가가 아날로그 반도체다. 
  • 스마트폰이나 디지털 카메라에 부착된 이미지 센서도 가장 대표적인 아날로그 반도체다. 

전체 전장 반도체 시장에서 아날로그 반도체 시장의 비중은 59퍼센트에 이른다. 

아날로그 반도체를 지배하는 자가 전장 반도체를 지배한다. 

우리나라의 대표적인 기업으로는 LX세미콘이 있다. 

 

LX세미콘 주력 상품 중 하나가 디스플레이용 아날로그 반도체. 

 

 

 

화합물 반도체: 특정한 성질을 얻기 위해 여러가지 물질을 화합해 만든 반도체 

  • 가령 실리콘으로만 만든 반도체는 열에 약하다. 150도만 넘어가도 기능을 상실한다. 이러면 전장 반도체로 쓰기 힘듦.
  • 반면에 실리콘에 탄소를 결합한 '실리콘카바이드(SiC)'나 질소와 갈륨을 결합한 '질화갈륨(GaN)'으로 반도체를 만들면 각각 2000도와 1000도 이상의 고열을 견뎌낸다. 
  • 자연스레 고전압도 견딜 수 있어 사용처가 무궁무진하다. 
  • 전기자동차에서 전압을 분배하는 역할을 맡는 전력 반도체(업계에서는 전력 반도체와 화합물 반도체를 동의어처럼 쓴다.)로의 쓰임이 대표적이다. 

 

 

뉴로모픽 반도체

인간의 뇌와 비슷한 구조의 반도체 

 

CPU는 연산단계마다 올바른 진단을 위해 끊임없이 램에서 데이터를 불러온다.

그렇게 하나하나 답을 찾아간다. 그러다가 중간에 잘못된 판단을 하면 최종결과가 틀리게 된다.

 

그러나 뉴로모픽 반도체는 동시다발적으로 저장과 연산, 실시간 피드백을 수행하여 전력소모가 감소한다. 

 

뉴런의 접점이 100조 개에 달하는데 엄청난 물량을 재현하려면 반도체 소자의 집적도를 극한의 수준까지 밀어붙여야 함.

>> 해결책: TSV

 

이종집적

말 그대로 다른 종류의 반도체를 하나로 합치는 것.

Sip(System in Package)

  • 여러 기능의 반도체를 하나로 묶는 것.
  • CPU, GPU, D램을 하나로 묶음.

SoC(System in Chip)

  • 하나의 반도체 안에 CPU, GPU, D램이 다 있음.
  • 공간활용과 전력에 이점이 있다. 

 

 

디지털 반도체 vs. 양자 반도체

디지털 반도체 양자반도체
슈퍼컴퓨터를 포함해 우리가 현재 일반적으로 사용하고 있는 디지털 컴퓨터의 반도체 미세한 입자의 흐름을 따름.
정보의 최소단위는 비트 큐비트
한번에 '1' 또는 '0'을 가진다. 
(거시세계의 논리) >> 이것이 곧 정보
'1'일 수도 있고 '0'일 수도 있음. 
입자의 중첩(양자얽힘)현상 이용
2비트는 네 번에 걸쳐서 정보를 나타냄. 2큐비트는 한번에 00, 01, 11, 01 을 동시에 정보로 나타냄. 
속도가 훨씬 빠름.

 

 

엔비디아

CUDA(Compute Unified Device Architecture)

- 그래픽 외에 일반적인 데이터의 연산을 수행한다. 

 

이것을 무료로 제공하였는데

그 이유는 하드웨어와 소프트웨어를 아우르는 엔비디아의 생태계를 구축하고자 하였기 때문이다. 

 

 

세레브레스 시스템스(Cerebras systems)

WSE(Wafer Scale Engine)

- 거대한 크기의 반도체

 

대부분의 반도체는 기판을 통해 반도체나 부품과 연결된다. 

바로 이 기판 그리고 기판과 반도체를 연결하는 접합부에서 전기신호 지연의 50%가 발생한다. 

즉, 기판만 없애도 성능을 50% 정도 끌어올릴 수 있다는 것이다. 

 

 

ACCEL

ACCEL (All - analog Chip Combining Electronics and Light) - 중국에서 개발됨.

- 아날로그 광전자 반도체 

 

일반적인 아날로그 반도체는 컨버터(변환기)를 통해 현실의 아날로그 신호를 컴퓨터가 다른 전기신호로 바꿔준다. 

ACCEL은 컨버터가 없다.

대신 아날로그 신호를 일단 받아들인 다음, 그 자체로 전류나 전압을 발생시키는 '포토다이오드'가 들어간다.

그래서 기존의 아날로그 반도체에 비해 뛰어난 성능을 가지고 있다. 

 

인공지능 개발에 쓰이는 엔비디아의 A100보다 연산속도는 3000배 빠르고, 전력소모는 400만 배 적다는 것을 증명하였다. 

발열도 거의 발생하지 않는다. 

 

ACCEL은 아날로그 신호를 디지털신호로 변환하는 대신 그 자체로 다루기 때문에 연산을 하지 않는다. 

특히 미세화가 불필요하다. 

 

그러나 상용화하기에는 빛 처리만 가능하다는 한계가 있다. 

 

 

미국의 반도체 전략

미국의 대중 반도체 규제(반도체법)

- 요약: 반도 기업이 중국에 투자하지 않으면 미국정부가 직접 보조금을 줄거다.

- 주요내용

  • 예상보다 수익을 많이 내면 보조금을 토해낼 것
  • 미국 정부가 반도체 시설에 접근할 수 있도록 할 것 
  • 중국에 투자하지 말 것
  • 미국에 시설을 짓고 미국인을 채용할 것
  • 가격을 낮춰 치킨 게임을 하지 말 것 

 

미국의 큰 그림 

  • 반도체 설계 : 미국
  • 반도체 소재 공급 : 일본
  • 반도체 양산(파운드리) : 한국 & 타이완

 

반도체 대란 

2021년 팬데믹 시기 반도체 대란 이유

  1. 팬데민 때문에 신차 구매가 감소할 것으로 예측한 자동차 기업들이 전장 반도체 발주량을 줄였다.
  2. 전장반도체 기술의 낙후.
  3. 천재지변(지진과 화재로 르네사스 일렉트로닉스 공장 파괴 / 텍사스 주 한파 인피니언, NXP 반도체 공장 가동 중단)

전장 반도체 시장이 매년 10퍼센트씩 꾸준히 성장할 것으로 보이자, 삼성전자와 SK하이닉스가 그에 맞춰 대응하고자 하는 중이다. 

 

현재 삼성전자는 이미 테슬라에 14나노 전장 반도체를 공급 중이다. 이후 4나노 전장 반도체 공급도 삼성전자가 따낼 가능성이 크다. 

 

삼성전자는 하드웨어에 집중하고 SK하이닉스는 소프트웨어에 집중하고 있다. 

 

 

K칩스법

보통 자산을 기준으로 10조원 이상은 대기업, 5000억원 이상, 1조원 미만은 중견기업, 5000억원 미만은 중소기업이다. 

대기업과 중견기업에 15퍼센트, 중소기업에 25퍼센트의 세제 혜택을 주는 조정안이 2023년 3월 국회를 통과했다. 

 

 

 

 

 

 

+

나노: 나노미터(1나노미터는 10억분의 1미터)

 ex) 인간의 머리카락은 8나노미터 정도

 

유전율: 전류가 외부 자기장에 영향받는 정도 

 

모뎀: 원활한 무선통신을 지원하는 반도체

무선통신: 잔파에 데이터를 실어 주고 받는 것 

모뎀은 데이터를 전파에 실을 수 있도록 변환하는 일, 전파에서 데이터를 분리하는 일을 모뎀이 담당한다. 

 

 

LED: 전기신호를 광신호로 바꿔주는 발광소자, 반도체의 일종 

 

청색 LED

  • 기존에 개발된 적색 및 녹색 LED와 함께 삼원색을 완성하는 마지막 퍼즐이었다.
  • 빛은 파장이 낮아지면 에너지가 증가한다. 삼원색 중 청색의 파장이 가장 짧다. 
  • 즉, LED가 청색을 띠려면 높은 에너지를 발산해야 하는데 이 정도의 전류 흐름 제어는 쉽지 않다. 
  • 그런데 2014년 일본에서 개발됨.
  • 에너지 효율을 높일 수 있다는 점에서 매우 각광받는 중이다.

 

전기신호지연의 50%가 접합부에서 발생한다. 

 

재배선: 몰딩 중에 흐트러진 배선을 바로잡거나 강화하는 과정.

솔더볼: 기판과 반도체를 연결해 전력을 공급하고 신호를 전달하는 부품. 

 

FI(Fan - In) : 솔더볼을 다이 크기를 넘지 않을 만큼만 설치하는 것.

FO(Fan - Out): 솔더볼을 다이 크기를 넘어갈 정도로 설치하는 것. - 구조 특성 상 전력공급과 신호전달에 유리.

 

 

V2X (Vehicle-to-Everything)

: 도로를 함께 주행 중인 다른 자동차들과 연결되어 정보를 주고 받는 것.

 

언어모델: 인간의 언어를 이해할 수 있는 인공지능, 텍스트로 구성된 대량의 데이터를 학습해 인간과 소통한다. 

 

배터리 수명 단위 사이클 (Cycle)

: 1사이클은방전된 배터리를 최대치까지 1회 충전하는 것을 말한다. 

: 만일 500 사이클이 넘어간 스마트폰이 있다면 그 스마트폰은 배터리용량이 80%미만일 것이다. 

'독서 > 과학' 카테고리의 다른 글

카이스트 미래전략 2024  (3) 2024.02.20
AI 이후의 세계  (1) 2024.01.19

 

시험도 끝났고 계절학기 수업도 안 맞는거 같아서 책이나 많이 읽자는 마음으로 교보문고에 갔다.

그곳에서 유달리 나의 이목을 끄는 책이 한 권 있었는데 그 책이 바로 '도둑맞은 집중력'이었다. 

 

처음 머리말을 읽었을 때는 '작가가 왜 이렇게 분노해있고 위기감에 휩싸인거 같지?' 라는 느낌을 받았다. 

그도 그럴 것이 집중력의 감소가 비만율의 증가로 이어졌고 아이들의 집중력은 점점 퇴화하고 있다는 글쓴이의 주장이 이어졌기 때문이다. 황당했다. 집중력의 감소와 비만율 간의 어떤 상관관계가 있길래 글쓴이가 이렇게 주장하는지 궁금했다. 

더군다나 나 자신도 현재 어떤 한 가지 일에 제대로 집중을 못하고 있는데 이 책을 통해서 얻어가는게 있을까? 라는 생각에 '도둑맞은 집중력'을 읽게 되었다.

 

1, 2, 3, 4, 5장은 자신이 프로빈스 타운에서 집중력을 높이기 위해 어떤 방법을 했는지 설명하면서 그 방법들을 뒷받침하는 연구결과를 제시한다. 개인적인 의견으로는 1, 2, 3, 4장은 지극히 당연한 이야기를 했다.

멀티태스킹을 하면 안된다, 몰입을 해야한다, 수면의 질을 높이자, 긴 텍스트를 많이 읽자,.. 너무나도 당연하고 요즘 현대인들이 이 사실을 모르는 사람은 없다. 따분한 이야기를 계속하는 듯했다. 그래서 책을 4장을 읽은 후에 그만 읽고 다른 책을 읽을까도 고민했었다. 그러나 5장을 읽었을 때 많은 충격에 휩싸였다.

 

나는 평소에 수학 문제를 풀거나 다른 공부를 할 때 스스로에게 몇 시간동안 한정된 분량을 다하기로 결심하고 그것에만 온전히 집중해야한다고 생각했다. 즉, 딴 생각은 하면 안 된다고 생각했다. 그러나 오히려 이러한 딴 생각을 할 때 집중력이 좋아지며 머릿속에 있는 내용이 정리가 된다고 한다. 한 연구결과로 새로운 것을 배운 뒤 딴 생각을 할 때 새로운 것을 이해하기 위해 과거에 자신이 배웠던 내용을 연결시키면서 새로운 것을 이해하고 더 나아가 자신 만의 창의적인 인사이트를 만들어 낼 수 있다는 것이다. 그렇다면, 딴 생각이 도대체 뭐냐고 질문을 할 수 있을 것이다. 내가 이해한 것으로는 다음과 같다. '의식을 가지고 어떤 일을 열심히 하고 난 후에 산책이나 멍 때리기를 통해 의식이 없는 채로 뇌가 알아서 정리하도록 내버려두는 행위'. 이러한 행위를 하고 나면 오로지 외부 세계에만 정신없이 바쁘게 초점을 맞추어 살던 뇌가 현재 일어나고 있는 일을 소화할 수 있는 기회를 줌으로써 쉴 수 있도록 할 수 있다. 오히려 이러한 느슨한 연상 패턴이 독특한 통찰로 이어질 수 있다고 작가는 이 책을 통해 말하고 있다. 

 

그렇다면, 어떤 것들이 우리의 집중력을 계속해서 빼앗아 가고 있을까? 

가장 거대한 세력을 소개하자면 그건 바로 빅테크 기업들이다. '페이스북', '인스타그램', 'X', '구글' 등과 같은 빅테크 기업들은 우리의 정보를 이용해 조금 더 많이 자신의 앱이나 웹 사이트에 오래 머무를 수 있도록 한다. 평소 다른 일을 하고 있는 와중에도 알림을 수시로 날리거나 이메일을 보내 사람들의 관심을 끌어들이고 자신들의 앱에 접속시키게 함으로써 사람들이 온전하게 자신의 일에 집중할 수 없도록 만드는 것이 현재의 상황이다. 이것을 뒷받침하는 내용이 책에 존재하는데, 이 책의 9장에서 보면 '커먼 그라운드(Common Ground)'라는 이름의 과학자팀이 페이스북이 대중에게 공개하지 않은 숨은 자료를 전부 연구한 뒤 '우리의 알고리즘은 분열에 이끌리는 인간 두뇌의 특성을 이용하고 있으며 이를 그대로 놔둔다면 페이스북이 사용자의 관심을 끌고 플랫폼에 머무는 시간을 늘리고자 점점 더 분열적인 콘텐츠를 쏟아내게 되리라'고 말했다. 

앞서 말한 '사람들의 관심을 끌어들이고 자신들의 앱에 접속시키게..' 이것이 결국은 우리에게 자극적인 컨텐츠를 지속해서 제공 함으로써 웹이나 앱에 머무는 시간을 늘린다는 것이다. 그러면 대중들은 지속해서 편협한 사고관과 자극적인 컨텐츠에 물들여져서 평상 시에도 분노한 상태로 머물게 된다는 것이 이 책의 주장이다. 

 

이러한 주장이 나는 조금 급진적이라고 생각이 들지만 확실한 건 나도 인스타나 유튜브의 숏츠나 영상을 보고 난 뒤에 나의 할 일에 복귀하면 머릿속이 혼잡스럽고 내가 집중한다고 느끼는 시점까지의 시간이 오래걸리는 것 같다. 그리고 인스타의 알람이나 유튜브에서 내가 즐겨보는 채널의 알림이 뜨면 하던 일을 다 마무리하고 보는 것이 아니라 수시로 확인을 하는 것 같다. 

 

그래서 이러한 상황에서 빅테크 기업이 나아가야 할 방향성은 기업들이 알람을 수시로 보내는 것이 아니라 매일 아침이나 개인이 정해놓은 시간대에 한꺼번에 알람을 보내는 것이다. 마치 아침에 신문이 오는 것처럼. 이렇게 하면 알람이 수시로 오지 않아 하던 일에 온전히 몰입할 수 있게 된다. 또, 인스타그램이나 페이스북, X와 같은 SNS들은 온라인 상에서 사람들의 모습을 보게 하는 것이 아닌 실제 오프라인에서 사람들의 모습을 직접 보게 해주는 연결 프로그램을 코딩하여 사람들이 오프라인에서 활발하게 연결되는 상황을 만들어 주는 것이 좋다고 한다. 

 

흠... 나는 첫 번째 방법에는 어느 정도 동의를 하지만, 두 번째 방법에는 동의하지 못한다. 형태는 다르지만, 우리나라에서 만남 어플을 가졌다가 범죄에 악용되는 사례도 많고 만남 어플 또한 서로가 만나기 이전에는 사진을 통해 서로의 모습을 확인하게 될 텐데 이것 또한 보여지는 모습이기에 만남이 긍정적일 확률은 지극히 적다고 생각한다. 물론 어디까지나 배움이 얄팍한 나의 생각이지만, 이러한 점도 고려해야하는 것은 맞는 것 같다. 

 

그렇다면 우리 개인은 어떻게 하면 좋냐라고 하면 이 책에서는 6가지 방법을 소개한다. 

  1. 사전 약속을 이용해 지나친 전환을 멈춘다. - 미리 스스로에게 약속하여 sns의 사용을 금한다는 것이다. 
  2. 산만함에 반응하는 자신의 방식을 만들자. - 작가는 스스로에게 무엇이 중요한 것인지 물었다.
  3. 소셜미디어에 뺏기는 시간을 줄이자. 
  4. 딴 생각을 하는 시간을 정하고 이 시간을 허용하자.
  5. 수면의 질을 높이자.
  6. 자녀가 있는 가정이라면 자녀들에게 자유롭게 놀 수 있는 환경을 만들어주자.

나한테 6번은 그렇게 많이 중요하지 않지만 이 책의 후반부에서 가장 시간을 들여서 설명하는 것이 바로 자녀의 집중력이다. 이 책은 자녀가 있는 부모라면 이 부분이 너무너무너무 중요하게 느껴질 듯하다. 간략하게 저 6번이 나오게 된 경로를 설명하자면 내가 유치원이나 초등학교 저학년 시절에는 공부에는 정말 많이 신경 안 쓰고 놀았고 혼자 마을을 돌아다니면서 이것저것 체험했는데 요즘은 부모가 옆에서 지켜보지 않는 곳에서는 놀면 안된다는 인식이 팽배하다고 한다. 이러면 자녀가 자유롭게 자신의 의지에 따라 노는 것이 불가능해지고 이는 집중력의 저하로 이어진다고 한다. 왜냐면 자신의 의지에 따라 노는 것이 불가능해지니 위축되어 부모가 짜 놓은 판에서 의미없는 공부나 놀이를 하게 될 수도 있다는 것이다. 이렇게 되지 않게 하기 위해서는 자녀들에게 자유롭게 놀 수 있는 환경과 자신이 가치 있어하는 것들을 마음껏 할 수 있도록 해야한다는 것이다. 

 

저 6가지 방법을 내가 앞으로 살아가면서 얼마나 많이 실천할 수 있을 지는 솔직히 잘 모르겠지만, 실천할 수 있도록 노력이라도 하는 것이 중요한 것 같다. 

 

책에 대해 말하자면 이 책은 자녀가 있는 부모님들이 읽으면 정말 좋을 것 같고, 집중력이 예전같지 않다고 생각하는 분들도 읽으면 좋을 것 같다. 내가 쓴 글이 너무 중구난방처럼 느껴질 수 있을 것 같지만! 좋게 봐주시면 감사드리겠다. 

 

 

다음 번에는 경제랑 관련된 책으로 글을 쓸 생각이다. 

 

 

+ Recent posts