- •“Digital Systems Testing and Design for Testability ”
- •“Digital Systems Testing and Design for Testability ”
- •“Digital Systems Testing and Design for Testability ”
- •“Digital Systems Testing and Design for Testability ”
- •“Digital Systems Testing and Design for Testability ”
- •“Digital Systems Testing and Design for Testability ”
- •1.Introduction
- •1.Introduction
- •1.Introduction
- •1.Introduction
- •1.Introduction
- •1.Introduction
- •1. Introduction
- •1. Introduction
- •1. Introduction
- •1. Introduction
- •1. Introduction
- •1. Introduction
- •1. Introduction
- •1. Introduction
- •2.Test Generation
- •2.Test Generation
- •2.Test Generation
- •2.Test Generation
- •2.Test Generation
- •2.Test Generation
- •2.Test Generation
- •2.Test Generation
- •2.Test Generation
- •2.Test Generation
- •2.Test Generation
- •2.Test Generation
- •2.Test Generation
- •2.Test Generation
- •2.Test Generation
- •Gate 1
- •Propagation D-cubes
- •2.Test Generation
- •2.Test Generation
- •2.Test Generation
- •2.Test Generation
“Digital Systems Testing and Design for Testability ”
Prof. Dr. V.N.Yarmolik
Lecture course: 50 hours lectures, 32 hours lab. Works
2014
Contents
1.Introduction.
1.1.Definitions and classifications
1.2.Controllability, observability and testability of digital circuits
1.3.Digital circuits faults and fault models
2.Test Generation
2.1.One-dimensional path sensitization 2.2.D-algorithms
2.3.Boolean differences
2.4.Random search and pseudorandom testing 2.5.Test generation efficiency estimations
2013 |
1 |
“Digital Systems Testing and Design for Testability ”
Prof. Dr. V.N.Yarmolik
Lecture course: 50 hours lectures, 32 hours lab. works
3.Design for Testability
3.1.Practical rules of design for testability 3.2.Design of testable combinational circuits 3.3.Scan techniques
3.4.Boundary-Scan Standard (JTAG) IEEE P1149.1 3.5.JTAG application for testing debagging and verification
4.Compact Testing
4.1.Transition count testing
4.2.Design of syndrome testable digital circuits 4.3.Pseudorandom test pattern generation 4.4.Design of pseudorandom test pattern generators 4.5.Random and Pseudorandom testing
4.6.Test data compression techniques2013 2
4.7.Signature Analyses
“Digital Systems Testing and Design for Testability ”
Prof. Dr. V.N.Yarmolik
Lecture course: 50 hours lectures, 32 hours lab. works
5.Self-Testing VLSI Design
5.1.Standard modular for self-testing VLSI design 5.2.Self-testing of microcomputers
5.3.Self-testing VLSI using Scan path 5.4.On-line and off-line BIST architectures
6.Memory Testing
6.1.RAM faults. Memory tests 6.2.March memory tests 6.3.Transparent memory tests 6.4.Symmetric transparent memory tests 6.5.Memory BIST
2013 |
3 |
“Digital Systems Testing and Design for Testability ”
Prof. Dr. V.N.Yarmolik
Lecture course: 50 hours lectures, 32 hours lab. works
7.Parametric Testing
7.1.IDDQ Testing 7.2.IDDQ Test generation
7.3.Pseudoexhaustive IDDQ tests
8.Design for Test
8.1.Syntheses for test
8.2.Design for testability Standards 8.3.Design flow with DFT 8.4.Automatic test equipment (ATE)
2013 |
4 |
“Digital Systems Testing and Design for Testability ”
Prof. Dr. V.N.Yarmolik
Lecture course: 50 hours lectures, 32 hours lab. works
ЛИТЕРАТУРА 1 Каган, Б. М. Основы эксплуатации ЭВМ / Б. М. Каган, И. Б. Мкртумян. – М. :
Энергоатомиздат, 1988. – 218 с.
2.Киносита, К. Логическое проектирование СБИС / К. Киносита, К. Асада, С. Карацу.
– М. : Мир, 1988. – 189 с.
3.Горяшко, А. П. Синтез диагностируемых схем вычислительных устройств / А. П. Горяшко. – М. : Мир, 1987. – 244 с.
4.Малышенко, Ю. В. Автоматизация диагностирования электронных устройств / Ю. В. Малышенко, В. П. Чипулис, С. Г. Шаршунов. – М. : Энергоатомиздат, 1986. – 213 с.
5.Согомонян, Е. С. Самопроверяемые устройства и отказоустойчивые системы / Е. С. Согомонян, Е. В. Слабаков. – М. : Радио и связь, 1989. – 208 с.
6.Садыхов, Р. Х. Технический сервис однородных вычислительных устройств / Р. Х. Садыхов, М. М. Татур. – Минск : Университетское, 2001. – 279 с.
2013 |
5 |
“Digital Systems Testing and Design for Testability ”
Prof. Dr. V.N.Yarmolik
Lecture course: 50 hours lectures, 32 hours lab. works
ЛИТЕРАТУРА
7.Иванюк, А. А. Проектирование контролепригодных цифровых устройств / А. А. Иванюк, В. Н. Ярмолик. – Минск : Бестпринт, 2006. – 296 с.
8.Неразрушающее тестирование запоминающих устройств / В. Н. Ярмолик [и др.]. – Минск : Бестпринт, 2005. – 230 с.
9.Проектирование самотестируемых СБИС : научная монография. В 2 т. / В.
Н. Ярмолик [и др.]. – Минск : БГУИР, 2001. – 159 с. ; 163 с.
10.Ярмолик, В. Н. Контроль и диагностика цифровых узлов ЭВМ / В. Н. Ярмолик. – Минск : Наука и Техника, 1988. – 240 с.
11.И.А.Мурашко, В.Н.Ярмолик “Методы минимизации энергопотребления при самотестировании цифровых устройств“ Минск, Бестпринт, 2004, 198с.
12.Ярмолик В.Н., Мурашко И.А., Куммерт А., Иванюк А.А. “Неразрушающее тестирование запоминающих устройств” Минск, Бестпринт, 2005. 230с.
2013 |
6 |
1.Introduction
1.1.Reliability
Reliability is the probability that the given system will perform its required function under specified conditions for a specified period of time.
A failure is said to have occurred in a circuit or system if it deviates from its specified behavior.
The failure rate is defined to be the number of failures per unit time compared with the number of surviving components:
Failure |
I |
II |
III |
|
|
|
|
rate |
|
|
|
|
|
|
Time |
Fig.1.1. Variation of failure rate with time: I - Early life period; II - Constant failure period; III - Wear-out failure period
2013 |
7 |
1.Introduction
1.1.Reliability
Определение 1. Неисправностью (Fault) вычислительной системы является такая ее функциональность, которая может приводить к новым выходным значениям (наблюдаемому поведению) и/или к новому состоянию системы, несоответствующим спецификации системы и требованиям, предъявляемым к ней.
Определение 2. Ошибкой (Error) вычислительной системы, из-за наличия в ней неисправности, является формирование для некоторого множества входных значений системы вычислительно или путем выборки одного или более неверных результатов, отличающихся от ожидаемых значений.
Определение 3. Неисправным поведением (Failure) вычислительной системы (сбоем вычислительной системы) называется формирование наблюдаемых выходных значений системы, отличных от ожидаемых, для некоторого множества входных значений.
2013 |
8 |
1.Introduction
1.1.Reliability
Спецификация |
|
|
|
|
|
|
системы |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Неисправности |
|
|
Ошибки |
|
|
|
|
|
|||
|
|
программного |
|
|
вычислительной |
|
Ошибки |
||||||
|
обеспечения |
|
|
системы |
||
реализации |
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
|
|
Внешние |
|
|
|
|
факторы |
|
|
|
|
|
Неисправности |
|
Неисправное поведение |
|
|
|
|
||
|
|
аппаратной |
|
вычислительной |
|
||||
|
|
части системы |
|
системы |
Физические |
|
|
|
|
дефекты |
|
|
|
|
|
|
|
|
|
. Причинно-следственная связь между неисправностями, ошибками и неисправным поведением вычислительной системы
2013 |
9 |
1.Introduction
1.2.Testability
The Testing Problem
Costs increase dramatically as faulty components find their way into higher levels of integration
$1.0 to fix an faulty IC (throw it out)
$10.0 to find and replace bad IC on a PC board $100.0 to find bad PC board in a system $1000.0 to find bad component in fielded system
Testing procedure
Apply a set of test vector to each device off the manufacturing line and compare outputs to the known good response. The optimum test set will detect the greatest number of defects that can be present in a device with the least number of test vectors (high defect coverage)
Type of test sets |
|
Exhaustive – apply every possible input vector |
|
Functional – test every function of the device |
|
Fault Model Derived – find a test for every modeled fault |
10 |
2013 |
