[0001] Die Erfindung betrifft Verfahren zum Ermitteln einer Erklärungskarte, ein Computerprogramm, eine Ein- oder Mehrzahl maschinenlesbarer Speichermedien und eine Ein- oder Mehrzahl Computer, ein maschinelles Klassifikationssystem sowie ein Anzeigesystem.
Stand der Technik
[0002] Aus der nicht vorveröffentlichten
DE 10 2018 205 561 ist eine Vorrichtung zur Klassifizierung einer Netzhaut bekannt, umfassend ein künstliches neuronales Netzwerk mit mindestens einer Faltungsschicht,
wobei die Faltungsschicht eine Mehrzahl von trainierbaren Faltungskernen enthält und zu jedem Faltungskern eine Aktivierungskarte liefert, die diskreten Positionen in der Eingabe der mindestens einen Faltungsschicht jeweils einen Ausgabewert zuordnet, welcher ein Maß für die lokale Übereinstimmung der Eingabe mit dem jeweiligen Faltungskern ist,
wobei der mindestens einen Faltungsschicht mindestens eine Klassifikatorschicht nachgeschaltet ist, die ihre Eingabe mittels trainierbarer Gewichte auf einen Satz Wahrscheinlichkeiten dafür abbildet, dass diese Eingabe zu einer von mehreren vorgegebenen Klassen, insbesondere ob das Gewebe gesund oder krankhaft verändert ist, zugehörig ist,
wobei eine Auswerteeinheit vorgesehen ist, welche dazu ausgebildet ist, durch gewichtete Summation der von der mindestens einen Faltungsschicht erhaltenen Aktivierungskarten mit in einer Aggregationsschicht hinterlegten Gewichten eine Relevanzkarte der Ausgabe der mindestens einen Faltungsschicht zu ermitteln, wobei die Relevanzkarte diejenigen Stellen des Gewebes, die für die Beurteilung maßgeblich gewesen sind, aufzeigt.
Vorteile der Erfindung
[0003] Das Verfahren mit den Merkmalen des unabhängigen Anspruchs 1 hat demgegenüber den Vorteil, dass eine verbesserte Ermittlung einer Erklärungskarte ermöglicht wird, die insbesondere eine pixelgenaue Darstellung ermöglicht. Hierdurch wird die in der Erklärungskarte enthaltene Information der menschlichen Wahrnehmung überhaupt erst zugänglich.
[0004] Vorteilhafte Weiterbildungen sind Gegenstand der abhängigen Ansprüche.
Offenbarung der Erfindung
[0005] Die gegenwärtige Erfindung ist im angehängten Anspruchsatz definiert.
[0006] Insbesondere bei einem System zur Unterstützung medizinischer Diagnostik, bei dem mittels eines tiefen neuronalen Netzes aufgrund gewisser Merkmale eines Bildes auf eine mögliche Diagnose erkannt wird, ist es wichtig, einem behandelnden Arzt klar anzuzeigen, welche Teile des Bildes zu dieser Diagnose geführt haben.
[0007] In einem ersten Aspekt betrifft die Erfindung daher ein Verfahren zum Ermitteln einer Erklärungskarte_eines Bildes, also der für ein Klassifikationsergebnis maßgeblichen Regionen eines Bildes, welches mittels eines tiefen neuronalen Netzes klassifiziert wird (d.h. das Bild wird einer Klasse aus einer vorgebbaren Mehrzahl von Klassen zugeordnet), in der Pixel des Bildes abhängig davon verändert werden, wie maßgeblich sie für die Klassifikation des Bildes sind, wobei die Erklärungskarte derart gewählt wird, dass eine möglichst kleine Untermenge der Pixel des Bildes verändert werden, was so geschieht, dass die Erklärungskarte, dann, wenn sie dem tiefen neuronalen Netz zur Klassifikation zugeführt wird, möglichst nicht zum gleichen Klassifikationsergebnis führt wie das Bild, wobei die Erklärungskarte derart gewählt wird, dass in Merkmalskarten (Englisch: "feature map") des tiefen neuronalen Netzes eine durch die Erklärungskarte hervorgerufene Aktivierung eine durch das Bild hervorgerufene Aktivierung dann (d.h. bei entsprechender Zuführung zum tiefen neuronalen Netz) im Wesentlichen nicht übersteigt.
[0008] Dass die Erklärungskarte möglichst nicht zum gleichen Klassifikationsergebnis führt wie das Bild kann beispielsweise bedeuten, dass möglichen Klassifikationsergebnissen jeweils eine Wahrscheinlichkeit zugeordnet wird, und dass die Wahrscheinlichkeit des gleichen Klassifikationsergebnisses minimiert wird.
[0009] Die Veränderung der Pixel kann beispielsweise derart geschehen, dass all jene Pixel des Bildes verändert werden, die maßgeblich für die Klassifikation des Bildes sprechen. Diese Pixel können beispielsweise hervorgehoben oder gelöscht werden.
[0010] Das heißt es ist vorgesehen, dass nicht nur das Bild, sondern ebenfalls die Erklärungskarte dem tiefen neuronalen Netz zugeführt werden, wobei die als Ausgangsgröße des tiefen neuronalen Netzes jeweils erhaltenen Klassifikationen möglichst nicht gleich sein sollen.
[0011] Ein tiefes neuronales Netz ist hierbei in üblicher Weise ein neuronales Netz, welches eine Mehrzahl von Schichten umfasst.
[0012] Dadurch, dass die Erklärungskarte in der Größe des eingehenden Bildes erstellt wird, und nicht in der Größe einer Aktivierungskarte bzw. einer Ausgangsgröße einer (insbesondere der letzten) Konvolutionsschicht erstellt wird, ergibt sich eine besonders genaue Darstellung, da die Erklärungskarte in den beschriebenen alternativen Ansätzen auf die Größe des eingehenden Bildes hochskaliert werden müsste. Relevante Kanten- und Farbinformationen bleiben erhalten
[0013] In einer Weiterbildung kann vorgesehen sein, dass die Erklärungskarte derart gewählt wird, dass einer Kostenfunktion L (Englisch: "loss function") optimiert wird. Mit anderen Worten baut das vorgeschlagene Verfahren auf einem Optimierungsproblem mit Nebenbedingung auf, also z.B.

[0014] Gleichung (1) kann vorteilhafterweise mittels einer Maske b gelöst werden, die beispielsweise multiplikativ sein kann, also
sx =
x · b, wobei b ∈[0,1] optimiert wird, vorteilhafterweise mit einer Startbedingung b(0)=1. Alternativ kann die Maske b auch additiv sein, also
sx =
x +
b,, wobei b optimiert wird mit der Startbedingung b(0)=0. Wird die optimierte Maske mit b* bezeichnet, ergibt sich für die Lösung des Optimierungsproblems aus Gleichung (1)

bzw.
x + b*.
[0015] In dem Optimierungsproblem wird ausgehend von einem Bild x, eine Erklärungskarte bzw. Darstellung

gesucht, die bestimmte Eigenschaften erfüllt. Diese Eigenschaften lassen sich mit der Kostenfunktion besonders einfach und flexibel darstellen.
[0016] Der Zusammenhang zwischen dem Bild x und der Darstellung

kann dann durch den initialen Zustand

von
sx (bzw. durch einen entsprechende Startbedingung der Maske b), sowie durch die Nebenbedingung der Optimierung definiert werden. Eine mögliche Ausführungsform ist, dass die Darstellung

nur Merkmale enthält, die auch im Bild x enthalten sind. Der initiale Zustand kann somit

sein, die Nebenbedingung, die vorteilhafterweise für jede ReLU-Schicht des tiefen neuronalen Netzes eingehalten werden soll, kann
hl(
sx) ≤
hl(
x) sein, wobei
hl die Aktivierung der l'ten ReLU-Schicht des tiefen neuronalen Netzes ist (wobei an Stelle einer ReLU-Funktion selbstverständlich auch andere Aktivierungsfunktionen verwendet werden können).
[0017] Vorteilhafterweise weist die Kostenfunktion mehrere (additive) Anteile auf, also
L =
Lh +
Lw +
Lc. Die additiven Anteile können selbstverständlich durch Parameter unterschiedlich gewichtet sein, diese Parameter können aber auch in die Definition der Anteile integriert sein. Beim Lösen des Optimierungsproblems aus Gleichung (1) können diese gewichtenden Parameter optional mit angepasst werden. Ein erster Anteil
Lh =
lh(
sx) kann so gewählt werden, dass er charakterisiert, wie viele Pixel des Bildes verändert sind. Beispielsweise kann dieser Anteil durch die L1-Norm
lh(
sx) = ∥
sx -
x∥
1 gegeben sein. Alternativ kann dieser Anteil durch die L1-Norm ∥1 -
b∥
1 der multiplikativen Maske b für s
x=x·b (b ∈ [0,1]) verwendet werden. Dieser Anteil würde dann bewirken, dass alle irrelevanten Pixel aus x in s
x unverändert enthalten sind.
[0018] Alternativ kann der zweite Anteil bereichsweise, insbesondere pixelweise, durch eine Funktion geschieht, die charakterisiert, wie sehr ein jeweiliger Pixel zu dem Klassifikationsergebnis, das sich für das Bild ergibt, beiträgt. Diese Funktion kann beispielsweise durch eine Logit-Funktion

einer Klasse i gegeben sein, sodass der entsprechende Anteil der Kostenfunktion dann gegeben ist durch
lw =
. D.h. der zweite Anteil ist gegeben durch die Wahrscheinlichkeit der Klasse i (bei Minimierung der Wahrscheinlichkeit der Klasse i). Alternativ kann sie durch eine Funktion gegeben sein, die alle Pixel bestimmt, die ein Merkmal i aktivieren. Bezeichnet

eine i-te Merkmalskarte der l-ten Schicht, so kann der zugehörige Term der Kostenfunktion gegeben sein durch

. Andere Normen sind möglich, beispielsweise eine L2-Norm.
[0019] Die Realisierung der Nebenbedingung, dass die Aktivierung durch die Erklärungskarte die Aktivierung durch das Bild im Wesentliche nicht übersteigt kann durch den Optimierungsansatz besonders einfach durch einen dritten Anteil
Lc in der Kostenfunktion realisiert werden, der ein solches Übersteigen bestraft, also z.B.
Lc = ∥
maximum(
hl(
sx) -
hl(
x), 0)∥
1, Andere Normen sind möglich, beispielsweise eine L2-Norm.
[0020] Alternativ wird die Erfüllung dieser Nebenbedingung dadurch erreicht, dass die Aktivierungen
hl(
sx) in der Merkmalskarte beim Ermitteln der Erklärungskarte auf einen vorgebbaren Wert, insbesondere auf den gemäß der Nebenbedingung maximal zulässigen Wert gesetzt wird, beispielsweise durch
h'l(
sx) = min (
hl(
x)
, hl(
sx))
. Wird ein Gradienten-basiertes Optimierungsverfahren benutzt, kann ein entsprechender Gradient
δl in der Rückwärts-Propagation (Englisch: "backpropagation") dann gegeben sein durch
δ'l =
δl · [
hl(
sx) <
hl(
x)]. Die Notation [...] bedeutet hierbei in üblicher Weise, dass der Wert = 1 ist, wenn die Bedingung erfüllt ist und = 0, wenn sie nicht erfüllt ist.
[0021] Alternativ wird die Einhaltung der Nebenbedingung dadurch erreicht, dass beim Einsatz des Gradienten-basierten Optimierungsverfahren der Gradient
δl der Rückwärts-Propagation einer Merkmalskarte
hl einer Schicht mit Aktivierungsfunktionen, insbesondere einer ReLU-Schicht, (d.h. der am Ausgang der Aktivierungsfunktion anliegende Gradient) des tiefen neuronalen Netzes gleich einem vorgebbaren Gradientenwert, insbesondere gleich Null gesetzt wird, wenn die Aktivierung
hl(
sx) durch die Erklärungskarte
sx die Aktivierung
hl(
x) durch das Bild x in der Schicht übersteigt, also z.B.
δ'l =
δl · [
hl(
sx) <
hl(
x)]
.
[0022] Die so ermittelte Erklärungskarte kann nun vorteilhafterweise ermittelt und angezeigt werden, insbesondere neben dem Bild. Durch die ortsgetreue Auflösung und die Auswahl nur der irrelevanten Pixel ist es somit möglich, eine Darstellung zu generieren, die einer Überprüfung durch einen menschlichen Experten, insbesondere einen Mediziner, zugänglich ist.
[0023] Nachfolgend werden Ausführungsformen der Erfindung unter Bezugnahme auf die beiliegenden Zeichnungen näher erläutert. In den Zeichnungen zeigen:
- Figur 1
- schematisch einen Aufbau von Ausführungsformen der Erfindung;
- Figur 2
- in einem Flussdiagramm den Ablauf des Verfahrens gemäß eines Aspekts der Erfindung.
[0024] Figur 1 zeigt in einer bevorzugten Ausführungsform der Erfindung ein maschinelles Klassifikationssystem 40, das eingerichtet ist, die Erfindung auszuführen. Das maschinelle Klassifikationssystem 40 umfasst einen Computer 45 und ein maschinenlesbares Speichermedium 46. Es umfasst ferner ein maschinelles Lernsystem 60, welches aus einem ihm zugeführten Bild x ein Ausgangssignal y ermittelt. Das Bild x kann beispielsweise über eine optionale Eingangsschnittstelle 50 aus einem Sensorsignal S ermittelt werden, das von einem bildgebenden Sensor 30 ermittelt wurde.
[0025] Das maschinelle Lernsystem ermittelt mittels eines tiefen neuronalen Netzes
f eine Klassifikation
f(
x|
θ) des Bildes x. Das tiefe neuronale Netz
f ist hierbei parametriert mit Parametern θ, die in einem Parameterspeicher Q hinterlegt sind. Das maschinelle Lernsystem 60 ermittelt ferner eine Erklärungskarte

, z.B. mit dem in Figur 2 illustrierten Verfahren. Erklärungskarte

und Klassifikation
f(
x|
θ) bilden zusammen das Ausgangssignal y, aus dem gemeinsam mit dem Bild x ein Ansteuersignal A ermittelt wird, beispielsweise mit einer optionalen Ausgangsschnittstelle 80. Das Ansteuersignal A kann beispielsweise Erklärungskarte

, Klassifikation
f(
x|x
θ) und Bild x umfassen. Das Ansteuersignal wird dann einer Anzeigeeinheit 10 zugeführt, die beispielsweise zwei Monitore 11, 12 umfasst. Dem ersten Monitor 11 wird das Bild x zugeführt und angezeigt, dem zweiten Monitor 12 wird die Erklärungskarte

zugeführt und angezeigt. Optional kann ebenfalls die Klassifikation
f(
x|
θ) angezeigt werden.
[0026] Figur 2 illustriert eine Ausführungsform des Verfahrens zum Ermitteln der Erklärungskarte
. Zunächst (1000) wird das tiefe neuronale Netz
f trainiert, beispielsweise, um in Bildern verschiedene Krankheitsbilder diskriminieren zu können. Dann (1100) wird für ein dem maschinellen Lernsystem 60 zugeführtes Bild x mittels des tiefen neuronalen Netzes
f eine Klassifikation
f(
x|
θ) des Bildes x ermittelt. Diese Schritte sind nicht zwingend Teil des erfindungsgemäßen Verfahrens, sondern bestimmen dessen Kontext und können beispielsweise im Vorfeld von separaten Einheiten ausgeführt worden sein.
[0027] Im Anschluss (1200) wird ein initialer Wert

der Erklärungskarte festgelegt, z.B.

. Dann (1300) wird das durch Formel (1) definierte Optimierungsproblem gelöst, vorzugsweise mit einem Gradientenabstiegsvefahren, um die Erklärungskarte

zu bestimmen.
[0028] Erklärungskarte

und Bild x werden dann (1400) den Monitoren 11, 12 zugeführt und wie beschrieben auf diesen angezeigt. Damit endet das Verfahren.
[0029] In einer anderen Ausführungsform ist der bildgebende Sensor 30 in einer Fertigungsanlage implementiert. Das Verfahren kann dann dazu genutzt werden, über die Anzeigeeinheit Ausschussteile für einen menschlichen Operator erfassbar darzustellen, sodass dieser über die Anzeige auf der Anzeigeeinheit 10 überhaupt in die Lage versetzt wird, zu erkennen, ob tatsächlich ein Ausschussteil vorliegt.
[0030] In einer weiteren Ausführungsform ist an Stelle des bildgebenden Sensors 30 eine beliebige Bilderfassungseinheit, vorgesehen, die ein bildgebender Sensor 30 sein kann, oder die beispielsweise Bilder aus einer Datenbank lädt und bereitstellt. Das Verfahren kann dann zum Überprüfen der Funktionsfähigkeit des tiefen neuronalen Netzes
f eingesetzt werden, um einen menschlichen Entwickler in die Lage zu versetzen, über die Anzeige auf der Anzeigeeinheit 10 analysieren zu können, welche Bildregionen zu einer möglichen Fehlklassifikation geführt haben.
[0031] In einer noch weiteren Ausführungsform ist der bildgebende Sensor 30 Teil eines Überwachungssystems. Durch die Anzeige auf der Anzeigeeinheit 10 wird ein menschlicher Experte in die Lage versetzt, zu erkennen, ob vom maschinellen Lernsystem 60 mutmaßlich erkannte anomale Szene (z.B. ein herrenloser Koffer) tatsächlich vorliegt.
[0032] Es versteht sich für den Fachmann, dass der Computer 46 auch durch eine Mehrzahl von Computern gegeben sein kann, und das maschinenlesbare Speichermedium 45 durch eine Mehrzahl maschinenlesbarer Speichermedien.
1. Computerimplementiertes Verfahren zum Ermitteln einer Erklärungskarte

eines Bildes x, in der all jene Pixel des Bildes x verändert sind, die maßgeblich für eine mit einem tiefen neuronalen Netz
f ermittelte Klassifikation des Bildes x sind,
wobei die Erklärungskarte

derart gewählt wird, dass ein Optimierungsproblem mit Nebenbedingung für einer Kostenfunktion L optimiert wird:

wobei das Optimierungsproblem mittels einer Maske b gelöst wird, die entweder multiplikativ, also sx = x · b, wobei b ∈ [0,1] optimiert wird, oder additiv, also sx = x + b, wobei b optimiert wird mit der Startbedingung b(0) = 0, ist;
wobei die Erklärungskarte

derart gewählt wird, sodass eine möglichst kleine Untermenge der Pixel des Bildes x verändert werden und die Erklärungskarte

dann, wenn sie dem tiefen neuronalen Netz f zur Klassifikation zugeführt wird, möglichst nicht zum gleichen Klassifikationsergebnis

führt wie das Bild x indem mögliche Klassifikationsergebnisse jeweils eine Wahrscheinlichkeit p zugeordnet wird, und dass eine Wahrscheinlichkeit des gleichen Klassifikationsergebnisses minimiert wird, und sodass eine durch die Erklärungskarte

hervorgerufene Aktivierung

eine durch das Bild x hervorgerufene Aktivierung

dann im Wesentlichen nicht übersteigt,
wobei die Kostenfunktion L einen ersten Anteil (Lh) aufweist, wobei der erste Anteil (Lh) durch eine L1 -Norm gegeben ist: lh(sx) = ∥sx∥1 der charakterisiert, wie viele Pixel des Bildes x verändert sind, und
wobei die Kostenfunktion L einen zweiten Anteil (Lw) aufweist, wobei der zweite Anteil pixelweise durch eine Funktion geschieht, die charakterisiert wie hoch die Wahrscheinlichkeit ist, dass das Klassifikationsergebnis für die Erklärungskarte

dem Klassifikationsergebnis für das Bild x entspricht, und
wobei die Nebenbedingung hl(sx) ≤ hl(x), dass für alle Aktivierungsfunktions-Schichten eine Aktivierung hl(sx) der I'ten-Aktivierungsfunktions-Schicht tiefen neuronalen Netz f durch die Erklärungskarte sx eine Aktivierung hl(x) der I'ten-Aktivierungsfunktions-Schicht des tiefen neuronalen Netzes f durch das Bild x nicht übersteigt, dadurch erreicht wird,
dass ein dritter Anteil (Lc) in der Kostenfunktion L realisiert wird, der ein solches Übersteigen bestraft, oder dadurch erreicht wird,
dass die Aktivierung hl( sx ) der jeweiligen I'ten-Aktivierungsfunktions-Schicht beim Ermitteln der Erklärungskarte sx auf einen vorgebbaren Wert, insbesondere den gemäß der Nebenbedingung maximal zulässigen Aktivierung hl(x), gesetzt wird, oder dadurch erreicht wird,
dass ein Gradienten-basiertes Optimierungsverfahren eingesetzt wird und ein Gradient (δl) einer Rückwärts-Propagation (Englisch: "backpropagation") der Aktivierung hl(sx) einer Schicht l des tiefen neuronalen Netzes gleich einem vorgebbaren Gradienten, insbesondere gleich Null, gesetzt wird, wenn die Aktivierung durch die Erklärungskarte sx die Aktivierung hl(x) durch das Bild x in der Schicht übersteigt.
2. Verfahren zum Anzeigen eines Bildes, wobei mit dem Verfahren nach Anspruch 1 die Erklärungskarte ermittelt und angezeigt wird,
3. Verfahren nach Anspruch 2, wobei auch das Bild x, insbesondere neben der Erklärungskarte, angezeigt wird.
4. Computerprogramm, das eingerichtet ist, das Verfahren nach einem der Ansprüche 1 bis 3 auszuführen.
5. Ein- oder Mehrzahl maschinenlesbarer Speichermedien (45), auf der das Computerprogramm nach Anspruch 4 gespeichert ist.
6. Vorrichtung, die eingerichtet ist, das Verfahren nach einem der Ansprüche 1 bis 3 auszuführen.
7. Anzeigesystem (13), das eingerichtet ist, das Verfahren nach einem der Ansprüche 2 oder 3 auszuführen.
1. Computer-implemented method for determining an explanation map

of an image
x, in which map all those pixels of the image
x which are crucial for a classification of the image
x determined by means of a deep neural network
f are changed,
wherein the explanation map

is selected in such a way as to optimize an optimization problem with a constraint for a loss function L:

wherein the optimization problem is solved by means of a mask b, which is either multiplicative, i.e. sx = x · b, where b ∈ [0,1] is optimized, or additive, i.e. sx = x + b, where b is optimized, with the start condition b(0) = 0;
wherein the explanation map

is selected such that a smallest possible subset of the pixels of the image x is changed and the explanation map

, when fed to the deep neural network f for classification, as far as possible does not lead to the same classification result

as the images by virtue of possible classification results each being assigned a probability p, and that a probability of the same classification result is minimized, and such that an activation

caused by the explanation map

then substantially does not exceed an activation

caused by the image x,
wherein the loss function L has a first component (Lh), wherein the first component (Lh) is given by an L1· norm: lh(sx) = ∥sx∥1, which characterizes how many pixels of the image x are changed, and
wherein the loss function L has a second component (Lw), wherein the second component is implemented pixel by pixel by way of a function which characterizes how high a probability there is that the classification result for the explanation map

corresponds to the classification result for the image x, and
wherein the constraint hl(sx) ≤ hl(x) that, for all activation function layers, an activation hl(sx) of the l-th activation function layer in the deep neural network f by the explanation map sx does not exceed an activation hl(x) of the l-th activation function layer of the deep neural network f by the image x is achieved by virtue of the fact
that a third component (Lc) is realized in the loss function L, said third component penalizing such exceeding, or is achieved by virtue of the fact
that the activation hl(sx) of the respective l-th activation function layer, when determining the explanation map sx, is set to a predefinable value, in particular the maximum permissible activation hl(x) in accordance with the constraint, or is achieved by virtue of the fact
that a gradient-based optimization method is used and a gradient (δl) of a backpropagation of the activation hl(sx) of a layer l of the deep neural network is set to be equal to a predefinable gradient, in particular equal to zero, if the activation by the explanation map sx exceeds the activation hl(x) by the image x in the layer.
2. Method for displaying an image, wherein by means of the method according to Claim 1 the explanation map is determined and is displayed.
3. Method according to Claim 2, wherein the image x is also displayed, in particular alongside the explanation map.
4. Computer program configured to carry out the method according to any of Claims 1 to 3.
5. One or a plurality of machine-readable storage media (45) on which the computer program according to Claim 4 is stored.
6. Device configured to carry out the method according to any of Claims 1 to 3.
7. Display system (13) configured to carry out the method according to either of Claims 2 and 3.
1. Procédé mis en œuvre par ordinateur, permettant de déterminer une carte descriptive

d'une image x sur laquelle tous les pixels de l'image x sont modifiés qui sont déterminants pour une classification de l'image x déterminée par un réseau neuronal profond
f,
dans lequel la carte descriptive

est sélectionnée de telle sorte qu'un problème d'optimisation à condition secondaire soit optimisé pour une fonction de coût L :

dans lequel le problème d'optimisation est résolu au moyen d'un masque b qui est optimisé soit par multiplication, donc sx = x · b, où b ∈ [0,1], soit par addition, donc sx = x + b, où b est optimisé avec la condition de départ b(0) = 0 ;
dans lequel la carte descriptive

est sélectionnée de telle sorte qu'un sous-ensemble aussi petit que possible des pixels de l'image x soit modifié, et que la carte descriptive sx, lorsqu'elle est amenée au réseau neuronal profond f pour la classification, n'aboutisse dans la mesure du possible pas au même résultat de classification

que l'image x en ce que des résultats de classification possibles sont respectivement associés à une probabilité p, et en ce qu'une probabilité du même résultat de classification soit minimisée, et de sorte qu'une activation

provoquée par la carte descriptive

ne dépasse alors pas substantiellement une activation

provoquée par l'image x,
dans lequel la fonction de coût L présente une première part (Lh), la première part (Lh) étant donnée par une norme L1 : lh(sx) = ∥sx∥1, qui caractérise combien de pixels de l'image x ont changé, et
dans lequel la fonction de coût L présente une deuxième part (Lw), la deuxième part étant réalisée pixel par pixel par une fonction, qui caractérise le niveau de probabilité que le résultat de classification pour la carte descriptive

corresponde au résultat de classification pour l'image x, et
dans lequel la condition secondaire hl(sx)≤hl(x) que pour toutes les couches de fonction d'activation une activation hl(sx) de la l-ème couche de fonction d'activation du réseau neuronal profond f par la carte descriptive sx ne dépasse pas une activation hl(x) de la l-ème couche de fonction d'activation du réseau neuronal profond f par l'image x est obtenue
en ce qu'une troisième part (Lc) dans la fonction de coût L est réalisée qui sanctionne un tel dépassement, ou est obtenue
en ce que lors de la détermination de la carte descriptive sx, l'activation hl(sx) de la l-ème couche de fonction d'activation respective est initialisée à une valeur prédéfinissable, en particulier l'activation hl(x) admissible au maximum selon la condition secondaire, ou est obtenue
en ce qu'un procédé d'optimisation à base de gradient est mis en oeuvre, et un gradient (δl) d'une rétropropagation (en anglais : « back propagation ») de l'activation hl(sx) d'une couche / du réseau neuronal profond est initialisé à un gradient prédéfinissable, en particulier à zéro, lorsque l'activation par la carte descriptive sx dépasse l'activation hl(x) par l'image x dans la couche.
2. Procédé d'affichage d'une image, dans lequel le procédé selon la revendication 1 détermine et affiche la carte descriptive.
3. Procédé selon la revendication 2, dans lequel aussi l'image x est également affichée, en particulier à côté de la carte descriptive.
4. Programme informatique qui est conçu pour exécuter le procédé selon l'une quelconque des revendications 1 à 3.
5. Un ou plusieurs supports de stockage ou lisibles par machine (45) sur lesquels est stocké le programme informatique selon la revendication 4.
6. Dispositif qui est conçu pour exécuter le procédé selon l'une quelconque des revendications 1 à 3.
7. Système d'affichage (13) qui est conçu pour exécuter le procédé selon l'une des revendications 2 ou 3.