상세 컨텐츠

본문 제목

[기술백서-AI편] 3강 설명 가능한 AI 검사 구조

제품 기술 이야기/AI 딥러닝

by swtec 2026. 1. 20. 08:46

본문

AI 판단을 ‘추적 가능한 데이터’로 만드는 방법

― 설명 가능한 AI는 구조에서 시작된다 ―

 

문제의 정리

AI가 틀리는 것이 아니라,
AI에 들어가는 입력이 흔들리고 있다

 

원인의 정리

1) 입력 이미지 편차   2) 타이밍 불일치   3) 메타데이터 부재

그렇다면, AI 판단을 설명 가능하게 만드는 구조란 무엇인가?


 

1️⃣ Explainable AI Inspection이란 무엇인가

Explainable AI Inspection은 단순히 AI 판단 근거를 시각화하는 기술이 아닙니다.
그 본질은 다음과 같습니다.

AI의 판단을 “하나의 사건(Event)”으로 기록하고
언제든 다시 추적·재현·설명할 수 있는 구조

즉, AI 결과를 점(point)으로 남기는 것이 아니라
맥락(context)과 함께 저장하는 시스템입니다.


 

2️⃣ 기존 AI 검사 구조의 한계

대부분의 AI 검사 시스템은 다음 구조를 가집니다.

  • 입력: 이미지
  • 출력: OK / NG
  • 저장: 불량 이미지 일부

이 구조에서 가능한 질문은 매우 제한적입니다.

  • “이건 불량인가?”
  • “AI가 맞았나, 틀렸나?”

하지만 가장 중요한 질문에는 답할 수 없습니다.

  • 왜 이 판단이 나왔는가
  • 같은 조건에서 다시 발생하는가
  • 다른 라인에서도 동일한가

👉 이유는 명확합니다.
AI 판단이 ‘고립된 결과’로만 존재하기 때문입니다.


 

3️⃣ AI 판단은 반드시 ‘조건과 함께’ 기록되어야 한다

Explainable AI Inspection의 핵심 원칙은 단순합니다.

AI 판단은
이미지 + 조건 + 시간 정보와
함께 기록되어야 한다

여기서 말하는 조건(Condition)은 다음을 포함합니다.

  • 엔코더 위치
  • 트리거 시점
  • 조명 전류 및 패턴
  • 노출 조건
  • 라인 속도
  • 레시피 / 공정 상태

이 정보들이 없다면 AI 판단은 사후 분석이 불가능한 결과에 불과합니다.


 

4️⃣ Explainable AI Inspection의 핵심 구조

설명 가능한 AI 검사는 다음 요소들이 하나의 시간 기준에서 묶일 때 완성됩니다.

🔹 필수 구성 요소

  • Image → AI가 실제로 판단한 원본 데이터
  • Trigger → 언제 촬영이 시작되었는가
  • Encoder → 어떤 위치에서 찍혔는가
  • Lighting → 어떤 조건으로 비춰졌는가
  • Timing → 지연·동기·정렬 상태
  • Metadata → 라인·레시피·설비·상태 정보

이 모든 정보가 동일한 타임라인 위에서 연결되어야
AI 판단은 설명 가능해집니다.


 

5️⃣ 왜 ‘하나의 시간 기준’이 핵심인가

많은 시스템이 “데이터를 많이 저장하면 설명 가능해진다”고 생각합니다.
하지만 실제로는 그렇지 않습니다.

시간 기준이 다른 데이터는
아무리 많아도 서로 설명해 주지 못합니다

엔코더 로그, 카메라 이미지, 조명 로그가 각각 다른 시간축에 있다면
AI 판단과의 인과관계는 증명할 수 없습니다.

Explainable AI의 출발점은 Single Time Reference입니다.


 

6️⃣ 성원기술이 제안하는 Explainable AI 구조

성원기술은 Explainable AI Inspection을 제품이 아니라 구조로 정의합니다.

🔹 ETIO / ETL

  • 엔코더·조명·카메라를 FPGA 기반으로 정렬
  • 물리적으로 흔들리지 않는 기준 시간 확보
  • “같은 위치, 같은 타이밍”을 보장

🔹 Signal Scope

  • AI 실패 순간의 실제 신호 파형 기록
  • 추측이 아닌 증거 기반 분석 가능
  • 타이밍 문제를 시각적으로 설명

🔹 Tagger

  • 이미지 + 검사 조건 + AI 판단 결과를 하나의 이벤트로 묶어 기록
  • AI 판단 이력 관리
  • 조건 기반 재현 및 비교 가능

이 구조에서 AI 판단은 더 이상 블랙박스가 아닙니다.


 

7️⃣ Explainable AI Inspection이 가능해지면 바뀌는 것

구조가 바뀌면 현장의 질문이 달라집니다.

구분 ❌ 잘못된 질문 ✅ 던져야 할 질문 (데이터 근거) 비고 (핵심 가치)
판단 근거 AI가 왜 틀렸을까? 이 판단은 어떤 조건(조명/위치/시간)에서 나왔는가? 인과관계 규명
문제 해결 AI 모델을 다시 학습해야 하나? 판단 당시의 입력 구조(시그널)를 먼저 점검했는가? 물리적 증거 우선
신뢰성 현장에서는 AI가 불안하다. 이 물리적 조건에서는 항상 동일한 결과가 나오는가? 재현성 확보
데이터 관리 데이터가 왜 유실됐을까? 단일 시간축(Single Time Reference)에 정렬되어 있는가? 시간 동기화

이 구조가 갖춰지면 AI는 비로소 신뢰 가능한 검사 도구가 됩니다.


다음 글 예고

다음 글에서는 이 Explainable AI 구조가 실제 현장에서 어떤 차이를 만들어내는지를 다룹니다.

  • 라인별 편차가 사라지는 이유
  • 속도를 올려도 결과가 유지되는 구조
  • AI PoC가 양산으로 이어지는 조건

 

제품 문의 & 기술 자료 요청
성원기술 · SWTEC Co., Ltd.
#ETIO #SCP3D #SIGNALSCOPE #성원기술 #머신비전 #2차전지검사 #반도체계측

관련글 더보기