데이터 코어
Data Core

mobile background
데이터 코어의 중요성
  ✔ 업무 능력 증폭
  • 데이터를 다루는 능력이 생겨 업무 실행 능력 대폭 성장


  데이터 해석 능력 강화

  • 통계 결과를 올바르게 해석하고 결과를 정확히 반영 가능


  경영성과 향상

  • 업무 목적에 맞는 다양한 툴을 사용하여 경영성과 향상


  문제 해결 능력 향상

  • 사내 다양한 문제를 데이터처리를 통해 해법 제시


   직무 경쟁력 향상

  • 개인의  데이터 전문성이 높아져 직무 경쟁력이 강화됨



데이터 코어 운영 과정

  연간운영체계 

  • 수요조사   수강생 모집   사전 역량진단   교육/실습   평가   성과환류

  학습환경 및 도구 등 제공방식

  • Jupyter Notebook, RStudio 기반 실습(수요자 요구시) → 코드 실행·시각화·리포트 작성 경험 증대
  • 형태 : 블렌디드 교육, 오프라인 실습 외에 온라인 과정 병행
  • 플랫폼 : LMS의 경우 당사의 LMS를 활용

  실습데이터 

  • 익명화한 기관 데이터 이용, 데이터 보안 관련 등으로 데이터 제공이 어려울 경우 합성/샘플 데이터를 확보할 방침

  현장활용 가능 결과물 

  • 교육생이 직접 만든 분석 리포트, 대시보드, 시뮬레이션 결과를 제출 → 현장에 즉시 활용 가능

  총교육시간

  • 직무별로 약 60~70시간(기초과정 40시간, 심화 20~30시간)
  • 조직 내 관심도 제고 차원의 입문과정인 ‘프로그래밍의 이해’라는 공통과정(약 1.5시간)도 편성가능



데이터 코어 프로그램 예시

대상 : 일반 직장인

기간 : 5일 데이터 코어 전문가 과정   

방식 : 5인 1팀, 소그룹 도제식 실습  

장소 : 발주처 지정 장소 

주요 툴  

PYTHON
PYTHON
R
R
jamovi
jamovi
SPSS
SPSS

R을 활용한 5일 데이터 코어 커리큘럼


1일차: R 환경 구축 및 데이터 기초 다지기

  • 목표: R 스튜디오 설치 및 기본 문법을 익히고, 개인 데이터를 불러와 데이터 구조를 파악합니다.
  • 상세 설명: R 및 R 스튜디오 설치를 시작으로, 변수, 벡터, 데이터프레임 등 R의 기본 데이터 구조를 학습하고, 보유한 데이터를 불러와 결측값, 이상치를 확인하는 과정을 멘토와 함께 실습합니다.

2일차: 데이터 전처리와 시각화를 통한 탐색적 분석

  • 목표: tidyverse 패키지를 활용해 데이터를 정제하고, ggplot2로 데이터의 특성을 시각적으로 탐색합니다.
  • 상세 설명: 필터링, 정렬, 그룹핑 등 데이터 전처리 기법을 배우고, ggplot2를 이용한 다양한 그래프(히스토그램, 산점도 등)를 그려 데이터의 분포와 관계를 탐색합니다.

3일차: 기초 통계분석 및 가설 검정

  • 목표: 기초 통계 분석(기술통계, 상관관계 등)을 수행하고, t-검정, 분산분석 등 가설 검정 방법을 적용합니다.
  • 상세 설명: 데이터의 평균, 표준편차 등을 계산하고, 두 집단 간 차이, 여러 집단 간 평균 차이 등 통계적 가설을 검정하는 과정을 실습하고 결과를 해석합니다.

4일차: 고급 통계 모델링 및 회귀분석

  • 목표: 선형 회귀분석 및 로지스틱 회귀분석을 통해 데이터 간 관계를 모델링하고 예측합니다.
  • 상세 설명: 변수들 간의 선형 관계를 분석하는 선형 회귀와 특정 사건의 발생 확률을 예측하는 로지스틱 회귀 모델을 구축하고, 모델의 적합도를 평가하는 방법을 배웁니다.
5일차: 개인 데이터 분석 프로젝트 및 결과 발표
  • 목표: 5일간 배운 내용을 바탕으로 개인 데이터를 활용한 최종 분석 프로젝트를 완료하고 멘토링을 받습니다.
  • 상세 설명: 각자의 프로젝트 진행 상황에 대해 멘토와 깊이 있는 토론을 진행하고, 분석 결과를 효과적으로 시각화하여 동료 수강생들 앞에서 발표하고 피드백을 주고받습니다.

PYTHON을 활용한 5일 데이터 코어 커리큘럼

1일차: Python 환경 구축 및 데이터 핸들링 시작

  • 목표: 아나콘다 환경 구축 후, NumPy와 Pandas 라이브러리 사용법을 익혀 데이터를 불러오고 조작합니다.
  • 상세 설명: 아나콘다와 주피터 노트북을 설치하고, NumPy를 활용해 배열을 다루고 Pandas로 데이터프레임을 생성, 편집하는 기초 데이터 핸들링을 실습합니다.

2일차: 데이터 전처리 및 탐색적 데이터 분석

  • 목표: Pandas를 활용해 데이터를 정제하고, Matplotlib과 Seaborn을 이용한 데이터 시각화로 데이터를 탐색합니다.
  • 상세 설명: 결측값 처리, 데이터 병합 등 데이터 전처리 기술을 배우고, Matplotlib과 Seaborn으로 데이터의 패턴과 관계를 파악하는 탐색적 데이터 분석(EDA)을 진행합니다.

3일차: 통계적 분석 및 가설 검정

  • 목표: SciPy와 Statsmodels를 활용하여 기초 통계 분석을 수행하고, 통계적 가설을 검정하는 방법을 익힙니다.
  • 상세 설명: 데이터의 기술통계량을 확인하고, T-test, 카이제곱 검정 등 가설 검정 기법을 적용해 통계적 유의미성을 판단하는 방법을 실습합니다.

4일차: 머신러닝 모델 구축 및 예측

  • 목표: Scikit-learn 라이브러리를 활용해 지도학습(회귀, 분류) 모델을 구축하고 성능을 평가합니다.
  • 상세 설명: 회귀 모델(선형 회귀)과 분류 모델(로지스틱 회귀)의 기본 원리를 이해하고, 실제 데이터에 적용해 모델을 훈련하고 성능을 평가하는 방법을 배웁니다.

5일차: 개인 데이터 분석 프로젝트 및 실무 적용

  • 목표: 배운 내용을 기반으로 개인 프로젝트를 진행하고, 멘토의 코칭을 받으며 분석 결과를 실무에 적용하는 방법을 모색합니다.
  • 상세 설명: 각자 가져온 데이터에 대해 멘토의 조언을 받아 심화 분석을 진행하고, 분석 과정과 결과를 정리하여 발표하며 실무 활용 방안을 구체화합니다.


mobile background

데이터 코어의 중요성

  ✔ 업무 능력 증폭

   실제 연구 데이터를 다루는 능력이 생겨 분석 과정에 두려움 축소


  ✔ 데이터 해석 능력 강화

   통계 결과를 올바르게 해석하고 결과를 정확히 반영 가능


  ✔ 경영성과 향상

   업무 목적에 맞는 다양한 툴을 사용하여 경영성과 향상


  ✔ 문제 해결 능력 향상

   사내 다양한 문제를 데이터처리를 통해 해법 제시


  ✔ 직무 경쟁력 향상

    직무에서 통계 전문성이 높아져 직무 경쟁력이 강화됨



데이터 코어 프로그램 예시

    ▶대상 : 일반 직장인

    ▶기간 : 총 14일 통계 전문가 과정   

    ▶방식 : 5인 1팀, 소그룹 도제식 실습  

    ▶장소 : 발주처 지정 장소 

    ▶주요 툴 

PYTHON
PYTHON
R
R
jamovi
jamovi
SPSS
SPSS

발주처의 사전 수요도 조사를 통해 TOOL 확장 가능

R을 활용한 데이터코어 커리큘럼

  • 1일차: R 환경 구축 및 데이터 기초 다지기
  • 2일차: 데이터 전처리와 시각화를 통한 탐색적 분석
  • 3일차: 기초 통계분석 및 가설 검정
  • 4일차: 고급 통계 모델링 및 회귀분석
  • 5일차: 개인 데이터 분석 프로젝트 및 결과 발표


PYTHON을 활용한 데이터코어 커리큘럼

  • 1일차: Python 환경 구축 및 데이터 핸들링 시작
  • 2일차: 데이터 전처리 및 탐색적 데이터 분석
  • 3일차: 통계적 분석 및 가설 검정
  • 4일차: 머신러닝 모델 구축 및 예측
  • 5일차: 개인 데이터 분석 프로젝트 및 실무 적용

왜 지식펜인가?