상세 컨텐츠

본문 제목

[기술백서-AI편] 1강 AI검사는 왜 믿기 어려운가

제품 기술 이야기/AI 딥러닝

by swtec 2026. 1. 20. 08:33

본문

― AI가 틀린 것이 아니라, 입력이 흔들렸다 ―

AI 검사 시스템을 도입한 현장에서 가장 자주 듣는 말은 이것입니다.

  • “AI가 가끔 이상한 판단을 합니다.”
  • “왜 불량인지 설명이 안 됩니다.”
  • “같은 조건인데 결과가 달라집니다.”

많은 현장에서 이 문제를 AI 모델의 한계로 받아들입니다. 그래서 더 많은 데이터, 더 복잡한 네트워크, 더 비싼 GPU를 고민합니다.

 


하지만 현장에서 반복 관찰되는 결론은 전혀 다릅니다.

❌ AI가 틀린 것이 아니다
AI에 들어가는 입력이 흔들리고 있다

AI는 입력된 데이터만큼만 정확하게 판단합니다.
즉, AI 검사 품질은 모델 성능 이전에 입력 신뢰성(Input Reliability)에 의해 결정됩니다.


 

1) AI 검사는 왜 ‘결과는 나오는데 설명이 안 될까?’

AI 검사에서 발생하는 가장 큰 문제는 단순한 오검출이 아닙니다.

  • 왜 불량인지 설명할 수 없음
  • 다시 같은 상황을 재현할 수 없음
  • 라인이 바뀌면 결과가 달라짐
  • 속도를 올리면 정확도가 급격히 흔들림

이 문제의 공통점은 하나입니다.
AI 판단 결과를 ‘추적할 수 있는 구조’가 없다

 

대부분의 시스템은 이미지 하나만 남아 있고,
그 이미지가 어떤 타이밍, 어떤 조명 상태, 어떤 엔코더 위치, 어떤 트리거 조건에서 획득되었는지 알 수 없습니다.

이 상태에서는 AI가 맞았는지, 틀렸는지를 누구도 설명할 수 없습니다.


 

2) AI 판단 오류의 실제 원인 ① 입력 이미지 편차

AI는 픽셀 단위의 미세한 차이에도 민감합니다.
그러나 현장의 입력 이미지는 생각보다 쉽게 흔들립니다.

  • 조명 타이밍 미세 오차
  • 라인 속도 변화
  • 노출 시점의 미묘한 이동
  • 진동, 반사, 환경 변화

사람 눈에는 동일해 보이는 이미지라도, AI 입장에서는 완전히 다른 데이터가 됩니다.

결론은 명확합니다.
AI는 틀리지 않았다다른 이미지를 보고 판단했을 뿐이다


 

3) AI 판단 오류의 실제 원인 ② 타이밍 불일치

많은 검사 시스템에서 아래 장비들은 각자 서로 다른 시간 기준으로 동작합니다.

  • 엔코더
  • 카메라
  • 조명
  • 트리거
  • PC / OS

이 구조에서 AI는 ‘같은 위치를 찍었다고 믿고’ 판단하지만,
실제로는 매번 조금씩 다른 순간의 이미지를 보고 있습니다.

결과적으로 아래 현상이 반복됩니다.

  • 같은 조건인데 결과가 달라짐
  • 속도를 바꾸면 갑자기 정확도 붕괴
  • 라인별 편차 발생

이것은 AI 문제가 아니라 시간 기준이 분리된 구조의 문제입니다.


 

4) AI 판단 오류의 실제 원인 ③ 메타데이터 부재

AI 판단 결과만 남고, 그 판단에 사용된 조건 정보가 남지 않는 경우가 대부분입니다.

예를 들면

  • 이 이미지는 어떤 엔코더 위치에서 찍혔는가?
  • 조명 전류는 얼마였는가?
  • 노출 시점의 트리거 지연은?
  • 라인 속도는 얼마였는가?

이 정보가 없으면 AI 판단은 사후 분석이 불가능한 블랙박스가 됩니다.


 

5) AI가 틀리는 순간, 현장에서 벌어지는 일

이 구조에서는 항상 같은 결론에 도달합니다.

  • “AI는 아직 불안정하다”
  • “현장에서는 쓰기 어렵다”
  • “사람 눈이 더 낫다”

하지만 문제는 AI가 아닙니다.
AI가 설명할 수 없는 구조에서, AI에게 설명을 요구하고 있기 때문입니다.


 

6) Explainable AI Inspection 구조란 무엇인가

설명 가능한 AI 검사는 AI 모델이 아니라 시스템 구조에서 시작됩니다.

반드시 함께 기록되어야 할 요소

요소 의미
Image AI가 판단한 원본 이미지
Trigger 촬영/판독이 발생한 시점
Encoder 위치 정보(어디를 찍었는지)
Lighting 조명 조건(전류/모드/타이밍)
Timing 지연·동기 정보(불일치의 핵심)
Metadata 라인/레시피/상태 등 판단 조건의 이력

이 모든 것이 하나의 시간 기준 위에서 묶여야 AI 판단은 설명 가능해집니다.


 

7) 성원기술이 제안하는 구조적 해답

성원기술은 AI 검사 신뢰성을 모델 성능이 아닌 ‘입력 구조’의 문제로 정의합니다.

  • ETIO / ETL
    → 엔코더·조명·카메라를 하나의 기준 시간으로 정렬
  • Signal Scope
    → AI 실패 시점의 신호를 파형으로 가시화
  • Tagger
    → 이미지와 검사 조건을 메타데이터로 함께 기록 (AI 판단의 ‘이력’을 남기는 구조)

이 구조에서는 질문이 달라집니다.

❌ “AI가 왜 틀렸을까?”
“이 판단은 어떤 조건에서 나왔는가?”


 

내용 리마인드 (현장형 예시)

상황: AI가 불량이라고 판독함.
문제: 어제는 합격이었는데 오늘은 왜 불량인지 알 길이 없음.
(당시 조명이 어두웠는지, 컨베이어 벨트가 평소보다 빨랐는지 기록이 없기 때문) 결과: AI는 ‘설명할 수 없는 블랙박스’가 되어 신뢰를 잃습니다.


 

마무리

AI 검사 신뢰성은 “AI가 똑똑한가?”보다 먼저,
AI에 들어가는 입력이 안정적인가?에서 결정됩니다.

“AI가 왜 틀렸는가”를 묻기 전에,
“그 판단이 어떤 조건에서 나왔는가”를 추적 가능한 구조로 만들어야 합니다.

 

제품 문의 & 기술 자료 요청
성원기술 · SWTEC Co., Ltd.
#ETIO #SCP3D #SIGNALSCOPE #성원기술 #머신비전 #2차전지검사 #반도체계측

관련글 더보기