AI 검사 시스템을 도입한 현장에서 가장 자주 듣는 말은 이것입니다.
많은 현장에서 이 문제를 AI 모델의 한계로 받아들입니다. 그래서 더 많은 데이터, 더 복잡한 네트워크, 더 비싼 GPU를 고민합니다.
하지만 현장에서 반복 관찰되는 결론은 전혀 다릅니다.
❌ AI가 틀린 것이 아니다
✅ AI에 들어가는 입력이 흔들리고 있다
AI는 입력된 데이터만큼만 정확하게 판단합니다.
즉, AI 검사 품질은 모델 성능 이전에 입력 신뢰성(Input Reliability)에 의해 결정됩니다.
AI 검사에서 발생하는 가장 큰 문제는 단순한 오검출이 아닙니다.
이 문제의 공통점은 하나입니다.
AI 판단 결과를 ‘추적할 수 있는 구조’가 없다
대부분의 시스템은 이미지 하나만 남아 있고,
그 이미지가 어떤 타이밍, 어떤 조명 상태, 어떤 엔코더 위치, 어떤 트리거 조건에서 획득되었는지 알 수 없습니다.
이 상태에서는 AI가 맞았는지, 틀렸는지를 누구도 설명할 수 없습니다.
AI는 픽셀 단위의 미세한 차이에도 민감합니다.
그러나 현장의 입력 이미지는 생각보다 쉽게 흔들립니다.
사람 눈에는 동일해 보이는 이미지라도, AI 입장에서는 완전히 다른 데이터가 됩니다.
결론은 명확합니다.
AI는 틀리지 않았다 — 다른 이미지를 보고 판단했을 뿐이다
많은 검사 시스템에서 아래 장비들은 각자 서로 다른 시간 기준으로 동작합니다.
이 구조에서 AI는 ‘같은 위치를 찍었다고 믿고’ 판단하지만,
실제로는 매번 조금씩 다른 순간의 이미지를 보고 있습니다.
결과적으로 아래 현상이 반복됩니다.
이것은 AI 문제가 아니라 시간 기준이 분리된 구조의 문제입니다.
AI 판단 결과만 남고, 그 판단에 사용된 조건 정보가 남지 않는 경우가 대부분입니다.
예를 들면
이 정보가 없으면 AI 판단은 사후 분석이 불가능한 블랙박스가 됩니다.
이 구조에서는 항상 같은 결론에 도달합니다.
하지만 문제는 AI가 아닙니다.
AI가 설명할 수 없는 구조에서, AI에게 설명을 요구하고 있기 때문입니다.
설명 가능한 AI 검사는 AI 모델이 아니라 시스템 구조에서 시작됩니다.
반드시 함께 기록되어야 할 요소
| 요소 | 의미 |
|---|---|
| Image | AI가 판단한 원본 이미지 |
| Trigger | 촬영/판독이 발생한 시점 |
| Encoder | 위치 정보(어디를 찍었는지) |
| Lighting | 조명 조건(전류/모드/타이밍) |
| Timing | 지연·동기 정보(불일치의 핵심) |
| Metadata | 라인/레시피/상태 등 판단 조건의 이력 |
이 모든 것이 하나의 시간 기준 위에서 묶여야 AI 판단은 설명 가능해집니다.
성원기술은 AI 검사 신뢰성을 모델 성능이 아닌 ‘입력 구조’의 문제로 정의합니다.
이 구조에서는 질문이 달라집니다.
❌ “AI가 왜 틀렸을까?”
✅ “이 판단은 어떤 조건에서 나왔는가?”
상황: AI가 불량이라고 판독함.
문제: 어제는 합격이었는데 오늘은 왜 불량인지 알 길이 없음.
(당시 조명이 어두웠는지, 컨베이어 벨트가 평소보다 빨랐는지 기록이 없기 때문) 결과: AI는 ‘설명할 수 없는 블랙박스’가 되어 신뢰를 잃습니다.
AI 검사 신뢰성은 “AI가 똑똑한가?”보다 먼저,
AI에 들어가는 입력이 안정적인가?에서 결정됩니다.
“AI가 왜 틀렸는가”를 묻기 전에,
“그 판단이 어떤 조건에서 나왔는가”를 추적 가능한 구조로 만들어야 합니다.
| [기술백서-AI편] 3강 설명 가능한 AI 검사 구조 (0) | 2026.01.20 |
|---|---|
| [기술백서-AI편] 2강 AI 판단 오류의 3가지 원인 (0) | 2026.01.20 |
| 인더스트리 5.0과 Data Logger (0) | 2025.11.13 |
| 머신비전의 메타데이터 삽입 기술(Tagger) (0) | 2025.11.11 |
| 머신비전 전용 DataLogger (Signal scope) (0) | 2025.11.11 |