분류 전체보기 92

0227 웹

웹 검색의 진화: 키워드에서 의미로기존 키워드 검색 (Syntactic Search)단순 문자열 일치(Key Matching) 방식문맥 파악 불가능 (예: '타는 차'와 '마시는 차'를 구분하지 못함)시맨틱 웹 (Semantic Web)로봇이나 AI가 웹 페이지의 내용을 사람처럼 이해하도록 구성의미론적 파싱(Semantic Parsing)이 가능하도록 메타데이터를 부여한 지능형 웹웹 구성의 3요소와 역할 분담HTML (Structure & Content)문서의 뼈대와 계층 구조 설정데이터와 내용 그 자체를 담는 역할CSS (Style)레이아웃 배치 및 시각적 스타일링HTML로부터 디자인 영역을 분리하여 재활용성 높임JS (Interaction)사용자의 동작에 반응하는 동적 제어웹 페이지에 생동감을 부여하..

카테고리 없음 2026.03.05

0224 웹

🌐 웹(Web) 1세대 (Web 1.0) 통신 구조 전체 정리웹 1세대는 인터넷 네트워크 환경에서 HTML 문서를 서버와 클라이언트가 주고받는 구조로 동작웹은 기본적으로 데이터 교환(Data 입출력)과 이를 해석하기 위한 프로토콜(Protocol, 규약) 을 기반으로 구성⇒ 서로 다른 컴퓨터가 동일한 규칙을 사용해야 통신이 가능하며, TCP·HTTP·HTML Parser가 각각 역할을 나누어 수행① 웹 1세대(Web 1.0) — HTML 문서 중심 구조웹 1세대는 서버가 HTML 문서를 저장하고 있다가 사용자의 요청이 들어오면 해당 파일을 그대로 전달하는 정적 웹(Static Web) 구조서버는 데이터 처리나 사용자 상호작용 없이 단순히 문서를 제공하며, 사용자는 브라우저를 통해 내용을 읽는 방식으로 ..

카테고리 없음 2026.03.05

0223

1. 데이터의 변환 (Data Transformation) : 비정형에서 정형으로컴퓨터는 숫자로 된 데이터만 이해 가능하므로, 모든 데이터는 **텐서(Tensor)**라는 다차원 행렬 형태로 변환되어야 함.비정형 데이터 → 정형 데이터: 컴퓨터가 이해할 수 없는 텍스트, 음성, 영상 데이터를 수치화된 행렬(Matrix) 형태로 변환하는 필수 과정.데이터별 텐서화(Tensorization):텍스트: 단어를 고차원 벡터로 변환하는 임베딩(Embedding) 처리.음성: 파형을 주파수 성분으로 분해하여 수치화.영상: 픽셀의 **색상 정보(RGB)**를 0~255 사이의 숫자로 구성된 3차원 텐서로 변환.2. TensorFlow 및 연산 구조TensorFlow: 다차원 배열인 Tensor를 이용한 데이터 흐름(..

카테고리 없음 2026.03.05

0220 금요일

프로세스 AI 기획 , 분석 기획 →데이터 수집 → 전처리(결측치, 변수 선택, 파생변수, 훈련/유효검사/ test데이터)→ 모델링(머신러닝/ 딥러닝) → 평가 → 배포(웹)웹 - 요구사항 정의서기능적 요구사항비기능적 요구사항요구사항 정의서 → UMLwhat(요구사항 정의서) → HOW(분석/ 아키텍처/ UI/ DB…) → 설계 → 구현 → 테스트유즈케이스 : 기능위주로동그라미 : 기능사람 : 액터 (사용하는 사람)사전 훈련된 모델 활용하기(p.311)사전 훈련된 모델: 일반적으로 대규모 이미지 분류 문제를 위해 대량의 데이터셋에서 미리 훈련된 모델기존 학습(사전학습)된 모델에다가 필요한 것만추가로conv … : feature 추출NN → y16개 층으로 이미지 인식하는 모델 생성 vgg16(cnn모델)..

카테고리 없음 2026.03.05

0219 CNN

이미지 데이터1. 이미지 데이터의 전처리 흐름 이미지 데이터를 컴퓨터가 이해할 수 있는 형태로 바꾸는 과정입니다.입력: $28 \times 28$ 형태의 2차원 배열 (MNIST 데이터셋 기준)Flatten (평탄화): 2차원 배열을 1차원 벡터로 만드는 작업입니다. $28 \times 28$은 총 784개의 픽셀이 됩니다문제점: 784개의 픽셀을 모두 독립적인 변수($x_1, x_2, ..., x_{784}$)로 사용하면 데이터의 복잡도가 너무 커져서 과적합(Overfitting)이 발생하기 쉽습니다.2. 차원 축소 (Dimension Reduction) : 과적합을 방지하고 학습 속도를 높이기 위해 특성(Feature)의 개수를 줄이는 전략구분방법론특징Selection (선택)변수 선택• 784개 중..

카테고리 없음 2026.03.05

0213 CNN

https://bcho.tistory.com/1149https://www.youtube.com/watch?v=a9REdNjdqYo분류 ⇒ 다층 형태 CNN[ Convolutional Layer ] → [ Fully Connected Neural Network ]✔ 앞부분 = 특징 추출기✔ 뒷부분 = 분류기1. CNN의 기본 구조CNN은 크게 두 부분으로 구성된다.Convolutional Layer (특징 추출 부분)Fully Connected Layer (분류 부분✔ 앞부분 = 특징 추출기✔ 뒷부분 = 분류기이미지 → 특징 추출 → 분류 → 확률 출력의 흐름으로 작동2. Convolutional Layer (합성곱 층)역할이미지에서 중요한 특징을 자동으로 추출하는 역할을 한다.예:경계선모서리질감눈, 코..

카테고리 없음 2026.03.05

02/10 ANN

퍼셉트론(ANN)입력층으로 표현하지만 실질적 연산은 일어나지 않음다층 퍼셉트론 ⇒ 출력층(뉴런의 핵심 기능인 다항연산과 시그모이드라는 function으로 이루어짐) 하나만 있다는 뜻다양한 형태의 자극 정보가 들어오면 각각의 가중치가 적용되어 최종 합산 ⇒ 출력층으로활성함수y=0 /1 출력의 결과에 의해서 다음 번 뉴런을 활성화할지말지 정해짐self attention = w의 집합w는 새로운 시각 벡터를 만들어내는거라고 이해해야함 → 수십차원일거임 1차원아님 !y’ = w1x0 + w2x1 + wx2트랜스포머는 다양한연산을 통해 다양한 관점을 보고 싶을 떄 사용하는 것가운데는 연산을 위한 노드의 개수출력은 관점 개수 ?입출력 개수 맞춰야하는데 시퀀셜이 해줌sequential에 대해 확인하기입력층 없음 ⇒ ..

LG DX DATA SCHOOL 2026.02.13

02/09 mnlist

MNLIST mnlistmnist 데이터셋은 handwritten digits(손글씨 숫자)로 이루어져있다.28 * 28 pixel 단위의 박스로 감싸져있고, grayscale화 되어있다.화소: 색상 정보를 가지고 있는 최소한의 단위편광기술빛의 3원소 → 섞으면 흰색검은색에서 흰색까지 256가지로 나눠서~숫자들의 나열 → 2차원1. 디지털 이미지의 표현 원리와 색상 체계그레이 스케일(Gray Scale)의 수치화:흰색(255)과 검은색(0), 그리고 그 사이의 중간 단계를 256단계의 숫자로 표현배경(테두리) 등 검은색은 0으로 채우고, 밝은 부분은 255, 232, 199 등 수치로 각 픽셀에 담음수치 범위를 벗어나는 입력값 처리: -1 등 하한값 미달은 0으로, 300 등 상한값 초과 시에는 최대치..

LG DX DATA SCHOOL 2026.02.13

02/03 화 02/05 목요일 SVM

SVM (support vector machine)지도학습 기반 머신러닝 모델로, 주로 분류(Classification) 문제에서 사용학습 데이터를 바탕으로 **최적의 결정 경계(Decision Boundary)**를 찾는 것이 목표 가운데 선을 ⇒ 경계 백터경계선 부근에 데이터가 들어오면 예측률 감소결정 경계와 초평면 (Hyperplane)결정 경계(Decision Boundary): 각 클래스를 나누는 기준선 또는 초평면.2차원에서는 선(line), 3차원 이상에서는 초평면(hyperplane)마진(Margin) & 최대 마진 원칙마진(Margin): 초평면과 가장 가까운 학습 데이터 간의 거리.SVM은 이 마진을 최대화 하는 결정 경계를 찾는 알고리즘클래스 간 차이를 가장 크게 벌려서(간격을 넓혀서..

LG DX DATA SCHOOL 2026.02.09

0130 인공신경망

인공신경망인간의 뇌를 기반으로 한 추론 모델뉴런은 기본적인 정보 처리 단위퍼셉트론에서 딥러닝까지뉴런의 온·오프 모델 → 퍼셉트론(학습 도입) → XOR 문제로 단층의 한계 인식 → 다층 신경망 필요 → 오차역전파로 다층 학습 가능 → 활성화 함수·초기화 기법 개선 → GPU와 데이터 증가 → 딥러닝단층 퍼셉트론중간층(hidden layer)이 없는 신경망 모델입력층 → 출력층은닉층 없음z=wTx+by=f(z)출력층이 핵인 셈결정 경계는 출력층 활성화 함수가 전부 결정학습도 결국 출력 오차 기반으로만 진행결과가 0또는 1 ⇒ 명목형 데이터로 갈 수 있는 분리형 ⇒ 로지스틱 회귀출력이 확률(0~1)threshold(보통 0.5)로 이진 분류명목형(label)로 해석 가능로지스틱 회귀 = 시그모이드 퍼셉트론s..

LG DX DATA SCHOOL 2026.01.30