Beschluss des BPatG München 19. Senat vom 01.06.2022, AZ 19 W (pat) 7/22

BPatG München 19. Senat, Beschluss vom 01.06.2022, AZ 19 W (pat) 7/22, ECLI:DE:BPatG:2022:010622B19Wpat7.22.0

Tenor

In der Beschwerdesache

betreffend die Patentanmeldung 10 2018 205 050.3

hat der 19. Senat (Technischer Beschwerdesenat) des Bundespatentgerichts am 1. Juni 2022 unter Mitwirkung des Richters Dipl.-Ing. Matter als Vorsitzender, des Richters Dipl.-Ing. Müller, der Richterin Dorn sowie des Richters Dipl.-Phys. Dr. Haupt beschlossen:

Die Beschwerde der Anmelderin wird zurückgewiesen.

Gründe

I.

1

Die Patentanmeldung mit dem Aktenzeichen 10 2018 205 050.3 und der Bezeichnung „Erkennen eines Beförderungswunsches einer Person für eine Beförderung mit einem Personenbeförderungsfahrzeug“ ist am 4. April 2018 beim Deutschen Patent- und Markenamt (DPMA) eingereicht worden.

2

Das DPMA – Prüfungsstelle für Klasse B60W – hat die Anmeldung mit Beschluss vom 24. Januar 2022 aus den Gründen des Prüfungsbescheids vom 25. Oktober 2021 zurückgewiesen. In dem in Bezug genommenen Bescheid ist sinngemäß ausgeführt, die jeweiligen Gegenstände der mit Schriftsatz vom 11. Juni 2019 eingereichten Patentansprüche 1 bis 5 beruhten nicht auf einer erfinderischen Tätigkeit.

3

Gegen diesen Beschluss richtet sich die am 1. Februar 2022 beim DPMA eingegangene Beschwerde der Anmelderin.

4

Sie beantragt zuletzt,

5

den Beschluss der Prüfungsstelle für Klasse B60W des Deutschen Patent- und Markenamts vom 24. Januar 2022 aufzuheben und das nachgesuchte Patent auf der Grundlage folgender Unterlagen zu erteilen:

6

Patentansprüche:

7

Patentansprüche 1 bis 5 vom 21. Februar 2022, beim DPMA als Hauptantrag eingegangen am 23. Februar 2022

8

Beschreibung:

9

Beschreibungsseiten 1 bis 17 vom 21. Februar 2022, beim DPMA eingegangen am 23. Februar 2022

10

Bezugszeichenliste (Seite 17) vom Anmeldetag (4. April 2018)

11

Zeichnungen:

12

Figuren 1 bis 6 (4 Blatt) vom 6. August 2018, beim DPMA eingegangen am 8. August 2018;

13

hilfsweise, ein Patent zu erteilen auf der Grundlage folgender Unterlagen:

14

Patentansprüche 1 bis 5 vom 21. Februar 2022, beim DPMA als Hilfsantrag eingegangen am 23. Februar 2022

15

Beschreibung und Zeichnungen wie Hauptantrag.

16

Die einander nebengeordneten Patentansprüche 1 bis 5 gemäß
Hauptantrag vom 21. Februar 2022 lauten:

17

1. Trainingsauswerteeinrichtung (10) für ein automatisiert betreibbares Personenbeförderungsfahrzeug (1) zum maschinellen Lernen des Beförderungswunsches der Person umfassend

18

– eine erste Eingangsschnittstelle (11), um wenigstens ein erstes Signal (S1) einer Person (2) zu erhalten, wobei das erste Signal (S1) eine Gestik, Mimik und/oder ein Stimmsignal der Person (2) umfasst,

19

– eine zweite Eingangsschnittstelle (12), um zweite Signale (S2a, S2b, S2c, S2d) zu erhalten, wobei die zweiten Signale (S2a, S2b, S2c, S2d) Signale für einen und für keinen Beförderungswunsch umfassen, wobei die zweite Eingangsschnittstelle (12) ausgeführt ist, zu den zweiten Signalen (S2a, S2b, S2c, S2d) entsprechende erste Steuerbefehle eines Fahrers (5) des Personenbeförderungsfahrzeuges (1) zu erhalten, und

20

– ein künstliches neuronales Netzwerk (13), wobei die Trainingsauswerteeinrichtung (10) ausgeführt ist, in einer Speisung des künstlichen neuronalen Netzwerks (13) mit dem ersten Signal (S1) und den zweiten Signalen (S2a, S2b, S2c, S2d)

21

– das erste Signal (S1) mit den zweiten Signalen (S2a, S2b, S2c, S2d) zu vergleichen,

22

– einen zweiten Steuerbefehl (6) für das Personenbeförderungsfahrzeuges (1) zu berechnen und

23

– Gewichtungsfaktoren (w) für Verbindungen (15) von Neuronen (16) des künstlichen neuronalen Netzwerks derart anzupassen, dass eine Übereinstimmung des ersten Signals (S1) mit einem der zweiten Signale (S2a, S2b, S2c, S2d) maximal ist und dass der zweite Steuerbefehl im Wesentlichen mit dem ersten Steuerbefehl übereinstimmt, der dem zweiten Signal (S2a, S2b, S2c, S2d) entspricht, dessen Übereinstimmung mit dem ersten Signal (S1) maximal ist,

24

um den zu diesem ersten Signal (S1) gehörenden ersten Steuerbefehl (6) zu lernen, um das Personenbeförderungsfahrzeug (1) automatisiert zu der Person (2) zu steuern.

25

2. Verfahren zum Trainieren eines künstlichen neuronalen Netzwerks (13), um einen Beförderungswunsch einer Person (2) für eine Beförderung mit einem Personenbeförderungsfahrzeug (1) zu erkennen, umfassend die Schritte:

26

– Bereitstellen von

27

– wenigstens einem ersten Signal (S1) der Person (2), wobei das erste Signal (S1) eine Gestik, Mimik und/oder ein Stimmsignal der Person (2) umfasst (V1), und

28

– von zweiten Signalen (S2a, S2b, S2c, S2d), wobei die zweiten Signale (S2a, S2b, S2c, S2d) Signale für den Beförderungswunsch und Signale für keinen Beförderungswunsch umfassen (V2a), wobei zu den zweiten Signalen (S2a, S2b, S2c, S2d) entsprechende erste Steuerbefehle eines Fahrers (5) des Personenbeförderungsfahrzeuges (1) bereitgestellt werden (V2b),

29

– Speisen des künstlichen neuronalen Netzwerks (13) mit dem ersten Signal (S1) und den zweiten Signalen (S2a, S2b, S2c, S2d) und Vergleichen des ersten Signals (S1) mit den zweiten Signalen (S2a, S2b, S2c, S2d) (V3a) und

30

– Anpassen von Gewichtungsfaktoren (w) für Verbindungen (15) von Neuronen (16) des künstlichen neuronalen Netzwerks (13) derart, dass eine Übereinstimmung des ersten Signals (S1) mit einem der zweiten Signale (S2a, S2b, S2c, S2d) maximal ist (V4a),

31

– wobei in der Speisung des künstlichen neuronalen Netzwerks (13) ein zweiter Steuerbefehl für das Personenbeförderungsfahrzeug (1) berechnet wird (V3b) und

32

–  die Gewichtungsfaktoren (w) derart angepasst werden, dass der zweite Steuerbefehl im Wesentlichen mit dem ersten Steuerbefehl übereinstimmt, der dem zweiten Signal (S2a, S2b, S2c, S2d) entspricht, dessen Übereinstimmung mit dem ersten Signal (S1) maximal ist (V4b),

33

damit der zu diesem ersten Signal (S1) gehörende erste Steuerbefehl (6) gelernt wird, um das Personenbeförderungsfahrzeug (1) automatisiert zu der Person (2) zu steuern.

34

3. Computerprogrammprodukt (20), das ausgeführt ist, in einen Speicher (21) eines Computers (22) geladen zu werden und das Softwarecodeabschnitte aufweist, mit denen die Schritte des Verfahrens nach Anspruch 2 ausgeführt werden, wenn das Computerprogrammprodukt (20) auf dem Computer (22) läuft.

35

4. Einsatzauswerteeinrichtung (30) für ein automatisiert betreibbares Personenbeförderungsfahrzeug (1) umfassend

36

– eine Eingangsschnittstelle (31), um ein erstes Signal (S1) einer Person (2) zu erhalten, wobei das erste Signal (S1) eine Gestik, Mimik und/oder ein Stimmsignal der Person (2) umfasst,

37

– wobei die Einsatzauswerteeinrichtung (30) ausgeführt ist,

38

– ein auf eine Bedeutung des ersten Signals (S1), vorzugsweise nach dem Verfahren nach Anspruch 2, trainiertes künstliches neuronales Netzwerk (13) mit dem ersten Signal (S1) zu speisen und

39

– einen dem ersten Signal (S1) entsprechenden Beförderungswunsch und einen dem Beförderungswunsch entsprechenden zweiten Steuerbefehl (6) zu erhalten und

40

– eine Ausgangsschnittstelle (32), um den zweiten Steuerbefehl für eine Steuerungseinrichtung (3) des Personenbeförderungsfahrzeuges (1) auszugeben,

41

um einen Beförderungswunsch der Person (2) für eine Beförderung mit dem Personenbeförderungsfahrzeug (1) zu erkennen und das Personenbeförderungsfahrzeug (1) automatisiert zu der Person (2) zu steuern.

42

5. Fahrerassistenzsystem (50) für ein automatisiert betreibbares Personenbeförderungsfahrzeug (1) umfassen

43

– wenigstens einen Umfelderfassungssensor (7) zur Erfassung eines ersten Signals (S1) einer Person (2), wobei das erste Signal (S1) eine Gestik, Mimik und/oder ein Stimmsignal der Person (2) umfasst und

44

– eine Einsatzauswerteeinrichtung nach Anspruch 4,

45

um einen Beförderungswunsch einer Person (2) für eine Beförderung mit dem Personenbeförderungsfahrzeug (1) zu erkennen und das Personenbeförderungsfahrzeug (1) automatisiert zu der Person (2) zu steuern.

46

Die einander nebengeordneten Patentansprüche 1, 2 und 4 gemäß
Hilfsantrag vom 21. Februar 2022 lauten:

47

1. Trainingsauswerteeinrichtung (10) für ein automatisiert betreibbares Personenbeförderungsfahrzeug (1) zum maschinellen Lernen des Beförderungswunsches der Person umfassend

48

– eine erste Eingangsschnittstelle (11), um wenigstens ein erstes Signal (S1) einer Person (2) zu erhalten, wobei das erste Signal (S1) eine Gestik, Mimik und/oder ein Stimmsignal der Person (2) umfasst,

49

–  eine zweite Eingangsschnittstelle (12), um zweite Signale (S2a, S2b, S2c, S2d) zu erhalten, wobei die zweiten Signale (S2a, S2b, S2c, S2d) Signale für einen und für keinen Beförderungswunsch umfassen, wobei die zweite Eingangsschnittstelle (12) ausgeführt ist, zu den zweiten Signalen (S2a, S2b, S2c, S2d) entsprechende erste Steuerbefehle eines Fahrers (5) des Personenbeförderungsfahrzeuges (1), umfassend ein Betätigen einer Warnblinkanlage, ein Abbremsen, ein Ansteuern zu der Person (2), ein Anhalten bei der Person (2) und das Gewähren von Zutritt in das Personenbeförderungsfahrzeug (1) in Reaktion auf die zweiten Signale (2C), zu erhalten, und

50

–  ein künstliches neuronales Netzwerk (13), wobei die Trainingsauswerteeinrichtung (10) ausgeführt ist, in einer Speisung des künstlichen neuronalen Netzwerks (13) mit dem ersten Signal (S1) und den zweiten Signalen (S2a, S2b, S2c, S2d), wobei parallel zum Einlesen der zweiten Signale (S2a, S2b, S2c, S2d) die zu den zweiten Signalen (S2a, S2b, S2c, S2d) korrespondierenden ersten Steuerbefehle des Fahrers (5) über die zweite Eingangsschnittstelle (12) eingelesen werden,

51

– das erste Signal (S1) mit den zweiten Signalen (S2a, S2b, S2c, S2d) zu vergleichen,

52

– einen zweiten Steuerbefehl (6) für das Personenbeförderungsfahrzeuges (1) zu berechnen und

53

– Gewichtungsfaktoren (w) für Verbindungen (15) von Neuronen (16) des künstlichen neuronalen Netzwerks derart anzupassen, dass eine Übereinstimmung des ersten Signals (S1) mit einem der zweiten Signale (S2a, S2b, S2c, S2d) maximal ist und dass der zweite Steuerbefehl im Wesentlichen mit dem ersten Steuerbefehl übereinstimmt, der dem zweiten Signal (S2a, S2b, S2c, S2d) entspricht, dessen Übereinstimmung mit dem ersten Signal (S1) maximal ist,

54

um den zu diesem ersten Signal (S1) gehörenden ersten Steuerbefehl (6) zu lernen, um das Personenbeförderungsfahrzeug (1) automatisiert zu der Person (2) zu steuern.

55

2. Verfahren zum Trainieren eines künstlichen neuronalen Netzwerks (13), um einen Beförderungswunsch einer Person (2) für eine Beförderung mit einem Personenbeförderungsfahrzeug (1) zu erkennen, umfassend die Schritte:

56

–  Bereitstellen von

57

– wenigstens einem ersten Signal (S1) der Person (2), wobei das erste Signal (S1) eine Gestik, Mimik und/oder ein Stimmsignal der Person (2) umfasst (V1), und

58

– von zweiten Signalen (S2a, S2b, S2c, S2d), wobei die zweiten Signale (S2a, S2b, S2c, S2d) Signale für den Beförderungswunsch und Signale für keinen Beförderungswunsch umfassen (V2a), wobei zu den zweiten Signalen (S2a, S2b, S2c, S2d) entsprechende erste Steuerbefehle eines Fahrers (5) des Personenbeförderungsfahrzeuges (1), umfassend ein Betätigen einer Warnblinkanlage, ein Abbremsen, ein Ansteuern zu der Person (2), ein Anhalten bei der Person (2) und das Gewähren von Zutritt in das Personenbeförderungsfahrzeug (1) in Reaktion auf die zweiten Signale (2C), bereitgestellt werden (V2b),

59

– Speisen des künstlichen neuronalen Netzwerks (13) mit dem ersten Signal (S1) und den zweiten Signalen (S2a, S2b, S2c, S2d), wobei parallel zum Einlesen der zweiten Signale (S2a, S2b, S2c, S2d) die zu den zweiten Signalen (S2a, S2b, S2c, S2d) korrespondierenden ersten Steuerbefehle des Fahrers (5) eingelesen werden, und Vergleichen des ersten Signals (S1) mit den zweiten Signalen (S2a, S2b, S2c, S2d) (V3a) und

60

– Anpassen von Gewichtungsfaktoren (w) für Verbindungen (15) von Neuronen (16) des künstlichen neuronalen Netzwerks (13) derart, dass eine Übereinstimmung des ersten Signals (S1) mit einem der zweiten Signale (S2a, S2b, S2c, S2d) maximal ist (V4a),

61

– wobei in der Speisung des künstlichen neuronalen Netzwerks (13) ein zweiter Steuerbefehl für das Personenbeförderungsfahrzeug (1) berechnet wird (V3b) und

62

– die Gewichtungsfaktoren (w) derart angepasst werden, dass der zweite Steuerbefehl im Wesentlichen mit dem ersten Steuerbefehl übereinstimmt, der dem zweiten Signal (S2a, S2b, S2c, S2d) entspricht, dessen Übereinstimmung mit dem ersten Signal (S1) maximal ist (V4b),

63

damit der zu diesem ersten Signal (S1) gehörende erste Steuerbefehl (6) gelernt wird, um das Personenbeförderungsfahrzeug (1) automatisiert zu der Person (2) zu steuern.

64

4. Einsatzauswerteeinrichtung (30) für ein automatisiert betreibbares Personenbeförderungsfahrzeug (1) umfassend

65

– eine Eingangsschnittstelle (31), um ein erstes Signal (S1) einer Person (2) zu erhalten, wobei das erste Signal (S1) eine Gestik, Mimik und/oder ein Stimmsignal der Person (2) umfasst,

66

–  wobei die Einsatzauswerteeinrichtung (30) ausgeführt ist,

67

– ein auf eine Bedeutung des ersten Signals (S1) nach dem Verfahren nach Anspruch 2 trainiertes künstliches neuronales Netzwerk (13) mit dem ersten Signal (S1) zu speisen und

68

– einen dem ersten Signal (S1) entsprechenden Beförderungswunsch und einen dem Beförderungswunsch entsprechenden zweiten Steuerbefehl (6) zu erhalten und

69

– eine Ausgangsschnittstelle (32), um den zweiten Steuerbefehl für eine Steuerungseinrichtung (3) des Personenbeförderungsfahrzeuges (1) auszugeben,

70

um einen Beförderungswunsch der Person (2) für eine Beförderung mit dem Personenbeförderungsfahrzeug (1) zu erkennen und das Personenbeförderungsfahrzeug (1) automatisiert zu der Person (2) zu steuern.

71

Der nebengeordneten Patentansprüche 3 und 5 nach Hilfsantrag sind unverändert gegenüber den entsprechenden Ansprüchen nach Hauptantrag.

72

Im Prüfungsverfahren vor dem DPMA wurden die folgenden Druckschriften entgegengehalten:

73

D1 DE 10 2016 217 770 A1

74

D2 DE 10 2017 100 609 A1

75

D3 DE 40 01 493 A1

76

D4 Maschinelles Lernen. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 26.02.2018, 11:55 UTC. URL: https://de.wikipedia.org/w/index.php?title=Maschinelles_Lernen&oldid=174406914

77

Von der Anmelderin wurden in der Beschreibung noch die folgenden Veröffentlichungen genannt:

78

D5 NIELSEN, M.: Neural Networks and Deep Learning, Determination Press, 2015

79

D6 SAE J3016 SEP2016: Surface Vehicle Recommended Practice. Taxonomy and Definitions for Terms Related to Driving Automation Systems for On-Road Motor Vehicles. Issued 2014-01, Revised 2016-09. 30 Seiten

80

Wegen weiterer Einzelheiten wird auf den Akteninhalt verwiesen.

II.

81

Die statthafte und auch sonst zulässige Beschwerde hat in der Sache keinen Erfolg, da die jeweiligen Gegenstände der nebengeordneten Patentansprüche 1 bis 5 sowohl nach geltendem Haupt- als auch nach Hilfsantrag nicht auf einer erfinderischen Tätigkeit beruhen und damit nicht patentfähig sind (§ 1 Abs. 1, § 4 PatG).

82

1. Die Anmeldung geht von Online-Vermittlungsdiensten zur Personenbeförderung aus, bei denen die Bestellung eines Fahrzeugs in der Regel über ein Smartphone erfolge (Beschreibung vom 21.02.2022, Seite 1, Absatz 2).

83

Gemäß Beschreibungseinleitung sei es nachteilig, dass eine Fahrzeugbestellung mit einem Smartphone eingeschränkt sein könne, beispielsweise wegen zu geringer Akkukapazität, zu niedrigem Kontostand und/oder schlechtem Empfang oder weil bestimmte Personengruppen, beispielsweise ältere Menschen oder Kinder, kein Smartphone besäßen oder nur eingeschränkt nutzen könnten (Seite 1, Absatz 3). Zudem verbleibe in der Regel wenig Zeit, das Fahrzeug mit dem Smartphone zu bestellen, wenn sich ein Personenbeförderungsfahrzeug einer zu befördernden Person nähere. In solchen Fällen erfolge die Bestellung durch ein typisches Beförderungssignal an den menschlichen Fahrer, etwa durch Winken in Kombination mit Kopforientierung und/oder Pfeifen oder andere Rufsignale (Seiten 1 und 2 übergreifender Absatz).

84

Ausgehend von einer Umstellung auf fahrerlose Personenbeförderungsfahrzeuge stelle sich das Problem, wie die typischen Beförderungssignale von Personen durch das fahrerlose Fahrzeug erkannt werden könnten (Seite 2, Absatz 2).

85

Daher liege der Erfindung die
Aufgabe zugrunde, eine Auswerteeinrichtung und ein Verfahren für ein automatisiert betreibbares Personenbeförderungsfahrzeug bereitzustellen, um einen Beförderungswunsch einer Person für eine Beförderung mit dem Personenbeförderungsfahrzeug zu erkennen und das Personenbeförderungsfahrzeug automatisiert zu der Person zu steuern (Seite 3, Absatz 2).

86

2. Diese Aufgabe werde durch die jeweiligen Gegenstände der nebengeordneten Patentansprüche 1 bis 5 nach
Hauptantrag gelöst, die in gegliederter Fassung wie folgt lauten:

87

Patentanspruch 1

88

1
Trainingsauswerteeinrichtung (10) für ein automatisiert betreibbares Personenbeförderungsfahrzeug (1) zum maschinellen Lernen des Beförderungswunsches der Person umfassend

89

a eine erste Eingangsschnittstelle (11), um wenigstens ein erstes Signal (S1) einer Person (2) zu erhalten,

90

a1 wobei das erste Signal (S1) eine Gestik, Mimik und/oder ein Stimmsignal der Person (2) umfasst,

91

b eine zweite Eingangsschnittstelle (12), um zweite Signale (S2a, S2b, S2c, S2d) zu erhalten,

92

b1 wobei die zweiten Signale (S2a, S2b, S2c, S2d) Signale für einen und für keinen Beförderungswunsch umfassen,

93

b2 wobei die zweite Eingangsschnittstelle (12) ausgeführt ist, zu den zweiten Signalen (S2a, S2b, S2c, S2d) entsprechende erste Steuerbefehle eines Fahrers (5) des Personenbeförderungsfahrzeuges (1) zu erhalten, und

94

c ein künstliches neuronales Netzwerk (13),

95

 wobei die Trainingsauswerteeinrichtung (10) ausgeführt ist,

96

c1 in einer Speisung des künstlichen neuronalen Netzwerks (13) mit dem ersten Signal (S1) und den zweiten Signalen (S2a, S2b, S2c, S2d)

97

c2 das erste Signal (S1) mit den zweiten Signalen (S2a, S2b, S2c, S2d) zu vergleichen,

98

c3 einen zweiten Steuerbefehl (6) für das Personenbeförderungsfahrzeuges [sic!] (1) zu berechnen und

99

c4 Gewichtungsfaktoren (w) für Verbindungen (15) von Neuronen (16) des künstlichen neuronalen Netzwerks derart anzupassen,

100

c4a dass eine Übereinstimmung des ersten Signals (S1) mit einem der zweiten Signale (S2a, S2b, S2c, S2d) maximal ist und

101

c4b dass der zweite Steuerbefehl im Wesentlichen mit dem ersten Steuerbefehl übereinstimmt, der dem zweiten Signal (S2a, S2b, S2c, S2d) entspricht, dessen Übereinstimmung mit dem ersten Signal (S1) maximal ist,

102

d um den zu diesem ersten Signal (S1) gehörenden ersten Steuerbefehl (6) zu lernen,

103

e um das Personenbeförderungsfahrzeug (1) automatisiert zu der Person (2) zu steuern.

104

Patentanspruch 2

105

2
Verfahren zum Trainieren eines künstlichen neuronalen Netzwerks (13), um einen Beförderungswunsch einer Person (2) für eine Beförderung mit einem Personenbeförderungsfahrzeug (1) zu erkennen, umfassend die Schritte:

106

a‘ Bereitstellen von wenigstens einem ersten Signal (S1) der Person (2),

107

a1‘ wobei das erste Signal (S1) eine Gestik, Mimik und/oder ein Stimmsignal der Person (2) umfasst (V1), und

108

b’ [Bereitstellen] von zweiten Signalen (S2a, S2b, S2c, S2d),

109

b1’ wobei die zweiten Signale (S2a, S2b, S2c, S2d) Signale für den Beförderungswunsch und Signale für keinen Beförderungswunsch umfassen (V2a),

110

b2‘ wobei zu den zweiten Signalen (S2a, S2b, S2c, S2d) entsprechende erste Steuerbefehle eines Fahrers (5) des Personenbeförderungsfahrzeuges (1) bereitgestellt werden (V2b),

111

c1‘ Speisen des künstlichen neuronalen Netzwerks (13) mit dem ersten Signal (S1) und den zweiten Signalen (S2a, S2b, S2c, S2d) und

112

c2‘ Vergleichen des ersten Signals (S1) mit den zweiten Signalen (S2a, S2b, S2c, S2d) (V3a) und

113

c4‘ Anpassen von Gewichtungsfaktoren (w) für Verbindungen (15) von Neuronen (16) des künstlichen neuronalen Netzwerks (13) derart,

114

c4a‘ dass eine Übereinstimmung des ersten Signals (S1) mit einem der zweiten Signale (S2a, S2b, S2c, S2d) maximal ist (V4a),

115

c3‘ wobei in der Speisung des künstlichen neuronalen Netzwerks (13) ein zweiter Steuerbefehl für das Personenbeförderungsfahrzeug (1) berechnet wird (V3b) und

116

c4‘ die Gewichtungsfaktoren (w) derart angepasst werden,

117

c4b‘ dass der zweite Steuerbefehl im Wesentlichen mit dem ersten Steuerbefehl übereinstimmt, der dem zweiten Signal (S2a, S2b, S2c, S2d) entspricht, dessen Übereinstimmung mit dem ersten Signal (S1) maximal ist (V4b),

118

d‘ damit der zu diesem ersten Signal (S1) gehörende erste Steuerbefehl (6) gelernt wird,

119

e um das Personenbeförderungsfahrzeug (1) automatisiert zu der Person (2) zu steuern.

120

Patentanspruch 3

121

3
Computerprogrammprodukt (20), das ausgeführt ist, in einen Speicher (21) eines Computers (22) geladen zu werden und das Softwarecodeabschnitte aufweist,

122

j mit denen die Schritte des Verfahrens nach Anspruch 2 ausgeführt werden, wenn das Computerprogrammprodukt (20) auf dem Computer (22) läuft.

123

Patentanspruch 4

124

4
Einsatzauswerteeinrichtung (30) für ein automatisiert betreibbares Personenbeförderungsfahrzeug (1) umfassend

125

a‘‘ eine Eingangsschnittstelle (31), um ein erstes Signal (S1) einer Person (2) zu erhalten,

126

a1 wobei das erste Signal (S1) eine Gestik, Mimik und/oder ein Stimmsignal der Person (2) umfasst,

127

4 wobei die Einsatzauswerteeinrichtung (30) ausgeführt ist,

128

f ein auf eine Bedeutung des ersten Signals (S1),

129

f1 vorzugsweise nach dem Verfahren nach Anspruch 2,

130

f trainiertes künstliches neuronales Netzwerk (13) mit dem ersten Signal (S1) zu speisen und

131

f2 einen dem ersten Signal (S1) entsprechenden Beförderungswunsch und

132

f3 einen dem Beförderungswunsch entsprechenden zweiten Steuerbefehl (6) zu erhalten und

133

g eine Ausgangsschnittstelle (32),

134

g1 um den zweiten Steuerbefehl für eine Steuerungseinrichtung (3) des Personenbeförderungsfahrzeuges (1) auszugeben,

135

h um einen Beförderungswunsch der Person (2) für eine Beförderung mit dem Personenbeförderungsfahrzeug (1) zu erkennen und

136

i das Personenbeförderungsfahrzeug (1) automatisiert zu der Person (2) zu steuern.

137

Patentanspruch 5

138

5
Fahrerassistenzsystem (50) für ein automatisiert betreibbares Personenbeförderungsfahrzeug (1) umfassen [sic!]

139

a‘‘‘ wenigstens einen Umfelderfassungssensor (7) zur Erfassung eines ersten Signals (S1) einer Person (2),

140

a1 wobei das erste Signal (S1) eine Gestik, Mimik und/oder ein Stimmsignal der Person (2) umfasst und

141

4 eine Einsatzauswerteeinrichtung nach Anspruch 4,

142

h um einen Beförderungswunsch einer Person (2) für eine Beförderung mit dem Personenbeförderungsfahrzeug (1) zu erkennen und

143

i das Personenbeförderungsfahrzeug (1) automatisiert zu der Person (2) zu steuern.

144

Zumindest werde die o. g. Aufgabe durch die folgenden Gegenstände nach
Hilfsantrag gelöst:

145

Patentanspruch 1

146

Im Anspruch 1 nach
Hilfsantrag sind die ersten Steuerbefehle des Fahrers (Merkmal b2) konkretisiert (Ergänzungen gegenüber dem Anspruch 1 nach Hauptantrag durch Unterstreichung hervorgehoben):

147

b2
Hi wobei die zweite Eingangsschnittstelle (12) ausgeführt ist, zu den zweiten Signalen (S2a, S2b, S2c, S2d) entsprechende erste Steuerbefehle eines Fahrers (5) des Personenbeförderungsfahrzeuges (1)
, umfassend ein Betätigen einer Warnblinkanlage, ein Abbremsen, ein Ansteuern zu der Person (2), ein Anhalten bei der Person (2) und das Gewähren von Zutritt in das Personenbeförderungsfahrzeug (1) in Reaktion auf die zweiten Signale (2C) [sic!], zu erhalten, und

148

Zudem ist im Merkmal c1 ergänzt, dass parallel zu den zweiten Signalen erste Steuerbefehle des Fahrers über die zweite Eingangsschnittstelle eingelesen werden:

149

c1
Hi in einer Speisung des künstlichen neuronalen Netzwerks (13) mit dem ersten Signal (S1) und den zweiten Signalen (S2a, S2b, S2c, S2d)
, wobei parallel zum Einlesen der zweiten Signale (S2a, S2b, S2c, S2d) die zu den zweiten Signalen (S2a, S2b, S2c, S2d) korrespondierenden ersten Steuerbefehle des Fahrers (5) über die zweite Eingangsschnittstelle (12) eingelesen werden,

150

Patentanspruch 2

151

Der Anspruch 2 nach
Hilfsantrag ist entsprechend zum Anspruch 1 abgeändert, d. h. die Merkmale b2‘
Hi und c1‘
Hi lauten (Ergänzungen gegenüber dem Anspruch 2 nach Hauptantrag hervorgehoben):

152

b2‘
Hi wobei zu den zweiten Signalen (S2a, S2b, S2c, S2d) entsprechende erste Steuerbefehle eines Fahrers (5) des Personenbeförderungsfahrzeuges (1)
, umfassend ein Betätigen einer Warnblinkanlage, ein Abbremsen, ein Ansteuern zu der Person (2), ein Anhalten bei der Person (2) und das Gewähren von Zutritt in das Personenbeförderungsfahrzeug (1) in Reaktion auf die zweiten Signale (2C) [sic!], bereitgestellt werden (V2b),

153

c1‘
Hi Speisen des künstlichen neuronalen Netzwerks (13) mit dem ersten Signal (S1) und den zweiten Signalen (S2a, S2b, S2c, S2d),
wobei parallel zum Einlesen der zweiten Signale (S2a, S2b, S2c, S2d) die zu den zweiten Signalen (S2a, S2b, S2c, S2d) korrespondierenden ersten Steuerbefehle des Fahrers (5) eingelesen werden, und

154

Patentanspruch 4

155

Der Anspruch 4 nach
Hilfsantrag ist insofern geändert, als dass nicht mehr fakultativ, sondern zwingend ein nach Anspruch 2 trainiertes neuronales Netzwerk mit dem ersten Signal gespeist wird (Änderungen gegenüber dem Anspruch 4 nach Hauptantrag mittels Durchstreichung gekennzeichnet):

156

f ein auf eine Bedeutung des ersten Signals (S1)
,

157

f1
Hivorzugsweise nach dem Verfahren nach Anspruch 2
,

158

f trainiertes künstliches neuronales Netzwerk (13) mit dem ersten Signal (S1) zu speisen und

159

Die Ansprüche 3 und 5 nach Hilfsantrag sind unverändert gegenüber den entsprechenden Ansprüchen nach Hauptantrag.

160

3. Vor diesem Hintergrund legt der Senat seiner Entscheidung als zuständigen Fachmann einen Diplom-Ingenieur bzw. einen entsprechenden Master der Fachrichtung Maschinenbau mit dem Fachgebiet Fahrzeugtechnik mit vertieften Kenntnissen betreffend Fahrassistenzsystemen zu Grunde, der Teil eines Teams ist, dem jedenfalls noch ein Informatiker angehört.

161

4. Der Senat geht von folgendem fachmännischen Verständnis der Angaben in den Patentansprüchen nach Haupt- und Hilfsantrag aus:

162

4.1 Die in Merkmal
1 (Anspruch 1) bzw. in Merkmal
4 (Anspruch 4) verwendeten Begriffe „
Trainingsauswerteeinrichtung“ bzw. „
Einsatzauswerteeinrichtung“ versteht der Fachmann vor dem Hintergrund der Beschreibung und aufgrund seines Fachwissens so, dass es sich jeweils um dieselbe Auswerteeinrichtung handelt (Beschreibung vom 21.02.2022, Seite 4, Absatz 2).

163

In der Trainings- oder Lernphase hat die Auswerteeinrichtung die Funktion einer Trainingsauswerteeinrichtung (10), d. h. das enthaltene künstliche neuronale Netzwerk (13) (Merkmal c) trainiert anhand von eingespeisten Soll-Trainingsdaten und Fehler-Trainingsdaten ein bestimmtes Verhalten, was in der Anmeldung in fachüblicher Weise als
maschinelles Lernen bezeichnet wird (Seite 6, Absatz 3 bis Seite 8, Absatz 3).

164

Nach Abschluss der Trainings- oder Lernphase hat die Auswerteeinrichtung die Funktion einer Einsatzauswerteeinrichtung (30), d. h. das trainierte neuronale Netzwerk (13) reagiert auf eingelesene Eingangssignale in der antrainierten Art- und Weise (Seite 8, Absatz 2; Seite 10, Absatz 1; Seite 12, Absatz 2; Seite 16, Absatz 2).

165

4.2 In der
Trainingsphase wird das Personenbeförderungsfahrzeug (1)
nicht automatisiert, sondern mit einem
Fahrer (5) betrieben. Wenn eine Person (2) am Straßenrand eine bestimmte Körperhaltung bzw. Geste (z. B. „Heranwinken“) einnimmt bzw. vollführt, erkennt der Fahrer (5) darin ggfs. einen Beförderungswunsch und führt bestimmte Handlungen durch (z. B. Betätigen der Warnblinkanlage, Abbremsen, Ansteuern zu der Person (2), Anhalten bei der Person (2), Gewähren von Zutritt), vgl. die nachfolgend wiedergegebene Figur 1:

AbbildungAbbildung in Originalgröße in neuem Fenster öffnen

166

Figur 1 mit Ergänzungen und Kolorierungen durch den Senat

167

4.3 Die Trainingsauswerteeinrichtung (10) erhält gemäß Merkmal
a über eine
erste Eingangsschnittstelle (11) wenigstens ein
erstes Signal (S1) der Person (2) am Straßenrand, das gemäß Merkmal
a1 eine Gestik, Mimik und/oder ein Stimmsignal der Person (2) umfasst. Die erste Eingangsschnittstelle (11) ist dementsprechend eine Schnittstelle zu einem Umfelderfassungssensor (Merkmal
a‘‘‘ des Anspruchs 5) (z. B. Bildsensor einer Kamera, Radar, Lidar und/oder einem Schallsensor; Seite 6, Absatz 2 und Seite 14, Absatz 4), kann aber auch eine Schnittstelle zu einer Datenbank sein (Seite 9, Absatz 2).

168

4.4 Über die in Merkmal
b genannte
zweite Eingangsschnittstelle (12) erhält die Trainingsauswerteeinrichtung (10) während einer Trainingsfahrt
zweite Signale (S2a, S2b, S2c, S2d) zusammen mit den entsprechenden ersten Steuerbefehlen des Fahrers, die dort in Echtzeit in ein künstliches neuronales Netzwerk (13) eingelesen werden. Wenn es sich bei der zweiten Eingangsschnittstelle (12) um eine Schnittstelle zu einer Datenbank handelt, erfolgt das Lernen mittels Simulation (Seite 9, Absatz 2; Seite 14, Absatz 5).

169

Die mehreren zweiten Signale (S2a, S2b, S2c und S2d), die nach Merkmal
b1 Signale
für einen und für keinen Beförderungswunsch umfassen, wie dies symbolisch in Figur 1 dargestellt ist, werden beispielhaft wie folgt beschrieben (Seite 14, Absatz 5 bis Seite 15, Absatz 2):

170

S2a Handzeichen einer Person, mit dem eine Person ein Taxi für eine Fahrt mit dem Taxi heranwinkt.

171

S2b Händeschütteln, mit dem eine Person einem Personenbeförderungsfahrzeug ein Anhalten kommuniziert.

172

S2c Handzeichen, mit dem eine Person das Anhalten eines Busses an einer Haltestelle, an der die Person auf den Bus wartet, kommuniziert.

173

S2d Signal, das
keinen Beförderungswunsch kommuniziert.

174

Die zweiten Signale, die Signale für einen Beförderungswunsch (S2a, S2b, S2c) umfassten und die entsprechenden ersten Steuerbefehle des Fahrers seien Soll-Trainingsdaten bzw. positive Trainingsdaten. Die zweiten Signale, die keinen Beförderungswunsch umfassten, seien Fehler-Trainingsdaten (Seite 6, Absatz 3 bis Seiten 7, Absatz 1).

175

Der Fachmann erkennt, dass die mehreren zweiten Signale (S2a, S2b, S2c, S2d) bestimmten, vom neuronalen Netzwerk zu detektierenden
Klassen entsprechen, wie dies bei neuronalen Netzwerken fachüblich ist, vgl.

176

– Dokument D2, Anspruch 1:
Verfahren zum Erfassen undKlassifizieren von Gesten

177

– Dokument D4, Seite 2, Abschnitt
Überwachtes Lernen, Absatz 1:
Ein Teilgebiet des überwachten Lernens ist dieautomatische Klassifizierung.

178

-Druckschrift D5, Seite 10, letzter Absatz:
classifyinghandwritten digits; Seite 67, Kap. 3.1.2
Using the cross-entropy to classify MNIST digits

179

In der Trainingsphase lernt das neuronale Netzwerk, die verschiedenen Klassen zu unterscheiden, wobei im späteren Betrieb des automatisiert betreibbaren Personenbeförderungsfahrzeugs alle erkannten ersten Signale einer Person, die einer der „positiven“, d. h. für einen Beförderungswunsch stehenden Klassen (zweite Signale S2a, S2b, S2c) zugeordnet werden können, die gleichen Steuerungssignale auslösen sollen, nämlich im Wesentlichen das Anhalten des Fahrzeugs bei der zu befördernden Person.

180

Dem Fachmann ist bekannt, dass bei der in der Anmeldung genannten Rückwärtsspeisung (
backward propagation) üblicherweise eine sogenannte Kostenfunktion ([
cross entropy]
cost function, auch als
loss function bezeichnet) verwendet wird, um das neuronale Netzwerk so zu trainieren, dass ein erstes Signal (S1) im Wesentlichen
einer Klasse, also
einem der zweiten Signale in der Sprache der Anmeldung, zugeordnet werden kann, wie dies im Merkmal
c4a auch gefordert wird, nämlich dass eine Übereinstimmung des ersten Signals (S1) mit einem der zweiten Signale (S2a, S2b, S2c, S2d) maximal ist, vgl.

181

– Anmeldung, Seite 15, vorletzter Absatz:
Das künstliche neuronale Netzwerk 13 wird mit dem ersten Signal S1 und den zweiten Signalen S2a, S2b, S2c und S2d gespeist. Das erste Signal S1 der Person aus Fig. 1weist die größte Übereinstimmung mit dem zweiten Signale S2c auf. Das künstliche neuronale Netzwerk 13 wird mit dem Fehler zwischen diesem ersten Signal S1 und diesem zweiten Signal S2crückwärtsgespeist. In der Rückwärtsspeisung werden die Gewichtungsfaktoren mittels Fehlerminimierung derart angepasst, dass das künstliche neuronale Netzwerk 13 über eine Ausgangsschnittstelle 14als Ergebnis ausgibt, dass das erste Signal zu 85% dem zweiten Signal S2c und zu 15% dem zweiten Signal S2b entspricht.

182

– D2, Absatz 0033:
Eine CTC (konnektionistische zeitliche Klassifizierung)-Kostenfunktionkann benutzt werden, um einneuronales Netzwerk zu trainieren

183

– D2, Absatz 0050:
Die klassenbedingten Wahrscheinlichkeitswerte, die für jede Modalität erzeugt werden, summieren sich auf Eins (z. B., 100%).

184

– D2, Absatz 0053:
durch Rückpropagierung … fein abgestimmt, um Gestenklassen … vorherzusagen

185

– D2, Absatz 0056:
propagiert … Fehler an die vorhergehende Schicht

186

– D5, S. 60ff, Kapitel 3.1:
Thecross-entropy cost function

187

4.5 Gemäß der Merkmalsgruppe
c enthält die Trainingsauswerteeinrichtung (10) ein
künstliches neuronales Netzwerk (13), das mit dem ersten Signal (S1) und den zweiten Signalen (S2a, S2b, S2c, S2d) gespeist wird (Merkmal
c1). Das künstliche neuronale Netzwerk (13) umfasst gemäß Merkmal
c4 Neuronen (16), die miteinander verbunden sind, wobei jeder Verbindung (15) ein Gewichtungsfaktor (w) zugeordnet ist, vgl. Figur 3:

188

Figur 3 mit Ergänzungen und Kolorierungen durch den Senat

189

Nach den – nicht einschränkenden – Ausführungen in der Beschreibung kann das künstliche neuronale Netzwerk als „konvolutionales“ oder „rekurrentes“ Netzwerk ausgebildet sein (Seite 8, Absatz 3), wie dem Fachmann hinlänglich bekannt ist, vgl.

190

– D2, Absatz 0003: tief faltende neuronale Netzwerke (CNNs =
deep convolutional neural networks); Absatz 0022:
Ein rekurrentes dreidimensionales faltendes neuronales Netzwerk (R3DCNN)

191

– D5, Seite 12, Absatz 3:
Recurrent neural nets; Seite 169, Kapitel 6.1
Introducing convolutional networks

192

4.6 Nach Merkmal
b2 erhält die zweite Eingangsschnittstelle (12) zu den zweiten Signalen (S2a, S2b, S2c, S2d) entsprechende
erste Steuerbefehle eines Fahrers (5) des Personenbeförderungsfahrzeugs (1). Die ersten Steuerbefehle (in den Figuren nicht gezeigt) können Befehle zum Ansteuern des Fahrzeugs (1) zu einer am Fahrbahnrand stehenden Person (2) sein, um – entsprechend deren Beförderungswunsch (erstes Signal) – diese in das Fahrzeug (1) aufnehmen zu können. Zur Übertragung der ersten Steuerbefehle des Fahrers (5) an das Fahrzeug (1) ist die zweite Eingangsschnittstelle (12) vorzugsweise eine Schnittstelle zu einem Fahrzeug-Datenübertragungssystem (z. B. CAN-Bus) (Seite 9, Absatz 2).

193

Der Fachmann erkennt in den ersten Steuerbefehlen (des Fahrers) das gewünschte Ausgangssignal des künstlichen neuronalen Netzwerks für bestimmte Eingangssignale, also das „Soll-Ausgangssignal“, in der Sprache der Anmeldung ein „
Soll-Kennzeichen“ (Seite 7, Absatz 3; Seite 9, letzter Absatz).

194

4.7 Nach der Merkmalsgruppe
c ist die Trainingsauswerteeinrichtung (10) ausgeführt, das erste Signal (S1) mit den zweiten Signalen (S2a, S2b, S2c, S2d) zu vergleichen (Merkmal
c2) und einen
zweiten Steuerbefehl für das Personenbeförderungsfahrzeug (1) zu berechnen (Merkmal
c3). Dabei werden die Gewichtungsfaktoren (w) für Verbindungen (15) von Neuronen (16) des künstlichen neuronalen Netzwerks (13) derart angepasst (Merkmal
c4), dass

195

– eine Übereinstimmung des ersten Signals (S1)
mit einem der zweiten Signale (S2a, S2b, S2c, S2d) maximal ist (Merkmal
c4a) und

196

– der zweite Steuerbefehl im Wesentlichen mit dem(jenigen) ersten Steuerbefehl übereinstimmt, der dem zweiten Signal (S2a, S2b, S2c, S2d) entspricht, dessen Übereinstimmung mit dem ersten Signal (S1) maximal ist (Merkmal
c4b).

197

Dabei soll der zu diesem ersten Signal (S1) gehörende erste Steuerbefehl gelernt bzw. „antrainiert“ werden (Merkmal
d), um nach Abschluss der Trainingsphase das Personenbeförderungsfahrzeug (1) automatisiert zu der Person (2) steuern zu können (Merkmal
e).

198

Der Fachmann erkennt in den zweiten Steuerbefehlen das Ist-Ausgangssignal des künstlichen neuronalen Netzwerks für bestimmte Eingangssignale, in der Sprache der Anmeldung ein „
Ist-Kennzeichen“ (Seite 7, Absätze 1 und 3).

199

4.8 Nach dem Ausführungsbeispiel und wie unter Punkt 4.4 bereits ausgeführt, erfolgt eine
Rückwärtsspeisung des neuronalen Netzwerks (13) mit dem Fehler zwischen dem ersten Signal S1 und demjenigen der zweiten Signale, z. B. S2c, das mit dem ersten Signal S1 die größte Übereinstimmung aufweist. In der Rückwärtsspeisung werden die Gewichtungsfaktoren mittels Fehlerminimierung derart angepasst, dass das neuronale Netzwerk (13) über eine Ausgangsschnittstelle (14) als Ergebnis ausgibt, dass das erste Signal S1 z. B. zu 85 % mit dem zweiten Signal S2c und zu 15 % dem zweiten Signal S2b entspricht (Seite 15, Absatz 4).

200

4.9 Nach Abschluss der Trainingsphase hat die Auswerteeinrichtung nicht mehr die Funktion einer Trainingsauswerteeinrichtung, sondern einer „Einsatzauswerteeinrichtung“ (30) gemäß Merkmal 
4. Über eine Eingangsschnittstelle (31) wird – wie in der Trainingsphase über die erste Eingangsschnittstelle (11) – ein erstes Signal (S1) einer Person (2) erhalten (Merkmal
a‘‘), wobei dieses erste Signal (S1) wiederum eine Gestik, Mimik und/oder ein Stimmsignal der Person (2) umfasst (Merkmal
a1).

201

Nach Merkmal
f speist die Einsatzauswerteeinrichtung (30) das (zuvor) trainierte künstliche neuronale Netzwerk (13) mit dem ersten Signal (S1) und erhält gemäß Merkmal
f2 von dem neuronalen Netzwerk (13) einen dem ersten Signal (S1) entsprechenden Beförderungswunsch und gemäß Merkmal
f3 einen dem Beförderungswunsch entsprechenden zweiten Steuerbefehl (6).

202

Über die in Merkmal
g genannte Ausgangsschnittstelle (32) wird dann der zweite Steuerbefehl an eine Steuerungseinrichtung (3) des Personenbeförderungsfahrzeugs (1) ausgegeben (Merkmal
g1), um einen Beförderungswunsch der Person (2) für eine Beförderung mit dem Fahrzeug (1) zu erkennen (Merkmal
h) und das Fahrzeug (1) automatisiert zu der Person (2) zu steuern (Merkmal
i).

203

4.10 Das in den Merkmalen 1, 4 und 5 genannte automatisiert betreibbare Personenbeförderungsfahrzeug soll nach den Angaben in der Beschreibung (Seite 5, insbesondere Absatz 5) entsprechend der Level 3, 4 oder 5 der Norm SAE J3016 (Druckschrift D6) autonom betrieben werden können.

204

4.11 Der Anspruch 5 ist zwar auf ein „Fahrerassistenzsystem“ gerichtet, was impliziert, dass das in Merkmal 5 genannte „automatisiert betreibbare Personenbeförderungsfahrzeug“ nicht ohne Fahrer betrieben wird, sondern lediglich einen stets vorhandenen Fahrer unterstützt. Jedoch sind in der Anmeldung mehrfach
fahrerlose Fahrzeuge genannt (Seite 2, Absatz 2; Seite 13, Absatz 1; Seite 14, Absatz 2; Seite 16, Absatz 2), z. B. vollautomatisierte Fahrzeuge nach Level 5 (Seite 5, letzter Absatz).

205

5. Die jeweiligen Gegenstände der nebengeordneten Patentansprüche 1 bis 5 gemäß
Hauptantrag sind nicht patentfähig:

206

5.1 Der Gegenstand des
Patentanspruchs 4 nach Hauptantrag ist ausgehend von der Druckschrift
DE 10 2016 217 770 A1 (
D1) zwar neu (§ 3 PatG), beruht aber nicht auf einer erfinderischen Tätigkeit (§ 4 PatG).

207

5.1.1 Die Druckschrift
D1 geht wie die vorliegende Anmeldung davon aus, dass selbstfahrende Kraftfahrzeuge zur Personenbeförderung nicht in der Lage sind, den Beförderungswunsch von potentiellen Fahrgästen zu erkennen, die am Straßenrand stehen und z. B. eine Handgeste ausführen (Absätze 0002 bis 0004).

208

Zur Lösung dieses Problems sieht die Druckschrift D1 vor, dass eine Kameraeinrichtung des Fahrzeugs kontinuierlich Bilder vom Fahrzeugvorfeld aufnimmt, die in einer Steuerungseinrichtung auf das Vorhandensein einer Person und insbesondere auf Bewegungsmuster bzw. Handbewegungen der Person ausgewertet werden. Wird eine Geste als Anhalte- bzw. Mitfahrwunsch erkannt, steuert das Fahrzeug vollautomatisiert die aufzunehmende Person an (Absätze 0008 bis 0010).

209

Die von der Steuerungseinrichtung erfasste Handbewegung wird mit vorab in einem Gesten- oder Bewegungspool definierten Vergleichsgesten oder Vergleichsmustern verglichen, die entweder schon in einem Speicher des Fahrzeugs vorliegen oder seitens des Fahrzeugs zuvor
gelernt bzw.
angelernt wurden. Der Musterpool kann regional unterschiedlich ausgelegt sein und an z. B. europäische oder nordamerikanische Verhaltensweisen angepasst sein (Absätze 0014 und 0034).

210

Die Druckschrift D1 nennt neben der optischen auch eine akustische Signalanalyse, um Rufsignale der zu befördernden Person auswerten zu können (Absatz 0017).

211

5.1.2 Die Druckschrift D1 zeigt, ausgedrückt in den Worten des
Patentanspruchs 4 nach Hauptantrag eine

212

4 Einsatzauswerteeinrichtung (
Steuerungseinrichtung 3) für ein automatisiert betreibbares Personenbeförderungsfahrzeug (
Kraftfahrzeug 1) umfassend

213

 (Figur 1; Absatz 0031:
Kraftfahrzeug 1, umfassend eine das Fahrzeugvorfeld aufnehmende Kameraeinrichtung 2 mit zugeordneter Steuerungseinrichtung 3, die zum Verarbeiten der Bilddaten der Kameraeinrichtung 2 dient.; Absatz 0048: …
von einem vollständig autonom fahrenden Fahrzeug)

214

a‘‘ eine Eingangsschnittstelle, um ein erstes Signal (A) einer Person (4) zu erhalten,

215

 (Figur 1: die Steuerungseinrichtung 3 ist mit der Kamera 2 verbunden und muss daher eine Schnittstelle zum Erhalt der Bilddaten aufweisen; Absatz 0032: …
einePerson 4, die mit der rechten Hand 5 eine quasi winkende Handbewegung macht, indem die Hand mehrfach von rechts nach links bewegt wird, wie durch den Doppelpfeil A angedeutet ist.)

216

a1 wobei das erste Signal (A) eine Gestik, Mimik und/oder ein Stimmsignal der Person (4) umfasst,

217

 (Figur 1; Absatz 0032:
Person 4, die mit der rechten Hand 5 eine quasiwinkende Handbewegungmacht, indem die Hand mehrfach von rechts nach links bewegt wird, wie durch den Doppelpfeil A angedeutet ist.Über dieseHandbewegungsoll dem Kraftfahrzeug 1, bei dem es sich beispielsweise um ein selbstfahrendes Taxi handelt, ohne oder mit Fahrer, signalisiert werden, dass die am Straßenrand stehende Person mitgenommen werden möchte. Das Winken ist folglich eineGeste, die einen Anhaltewunsch beschreibt.; Absatz 0033:
linken Hand 6 … durch den einenangehobenen Finger7 dargestellt.; Absatz 0035:
Blickrichtungserfassung; Absatz 0017:
… über ein kraftfahrzeugseitiges Mikrofon ein etwaigesRuf– oder Pfeifgeräusch der Person erfasst)

218

4 wobei die Einsatzauswerteeinrichtung (3) ausgeführt ist,

219

f ein auf eine Bedeutung des ersten Signals (A),

220

f
teil trainiertes
künstliches neuronales Netzwerk
(in der Steuerungseinrichtung 3) mit dem ersten Signal (A) zu speisen und

221

f2 einen dem ersten Signal (A) entsprechenden Beförderungswunsch und

222

 (Absatz 0014:
Die Handbewegung kann über die Steuerungseinrichtung erfasst werden und … mit vorab in einem Gesten- oder Bewegungspool definierten Gesten- oder Vergleichsmustern, die seitens des Kraftfahrzeugs … zuvorgelerntwerden können, verglichen werden.; Absatz 0034:
Darüber hinaus analysiert die Steuerungseinrichtung 3, ob die Person entsprechende Bewegungsmuster respektive Handbewegungen durchführt, die eine möglicheeinen Anhaltewunsch anzeigende Gestebeschreiben. Die Steuerungseinrichtung 3 erfasst hier das Winken der Hand 5. … Die Vergleichsgesten oder Vergleichsbewegungen können beispielsweiseangelerntsein … Danach offenbart die Druckschrift D1 zwar das Trainieren eines Netzwerks, jedoch lässt sich ihr nicht unmittelbar und eindeutig die Ausbildung als künstliches neuronales Netzwerk entnehmen.)

223

f3 einen dem Beförderungswunsch entsprechenden zweiten Steuerbefehl zu erhalten und

224

 (Absatz 0036:
Stellt die Steuerungseinrichtung 3 nun fest, dass es sich um eine, gegebenenfalls über die Blickrichtungserfassung verifizierte Handbewegung handelt, die einen Anhaltewunsch anzeigt, so kann gestützt auf diese Informationdas Kraftfahrzeug 1 gezielt über die Steuerungseinrichtung 3 zum Anhalten in der Nähe der Person gesteuert werden.)

225

g eine Ausgangsschnittstelle,

226

g1 um den zweiten Steuerbefehl für eine Steuerungseinrichtung des Personenbeförderungsfahrzeuges (1) auszugeben,

227

 (Figur 1: Die Steuerungseinrichtung 3 ist mit der Antriebseinrichtung 14 verbunden, so dass sie eine Ausgangsschnittstelle zu dieser bzw. zu einer in der Antriebseinrichtung 14 integrierten Steuerungseinrichtung aufweisen muss; Absatz 0036:
Stellt die Steuerungseinrichtung 3 nun fest, dass es sich um eine, gegebenenfalls über die Blickrichtungserfassung verifizierte Handbewegung handelt, die einen Anhaltewunsch anzeigt, so kann gestützt auf diese Information das Kraftfahrzeug 1 gezieltüber die Steuerungseinrichtung 3zum Anhalten in der Nähe der Person gesteuert werden.)

228

h um einen Beförderungswunsch der Person (4) für eine Beförderung mit dem Personenbeförderungsfahrzeug (1) zu erkennen und

229

i das Personenbeförderungsfahrzeug (1) automatisiert zu der Person (4) zu steuern.

230

 (Absatz 0042:
Sobald sämtliche Auswertungen erfolgt sind und klar ist, dass das Kraftfahrzeug die Person 4 aufnehmen wird, steuert die Steuerungseinrichtung 3 eine entsprechende Antriebseinrichtung 14 des Kraftfahrzeugs an,woraufhin dieses sich automatisch in Bewegung setzt und zu der Person 4 fährt, um diese aufzunehmen.)

231

Als Unterschied zur Vorrichtung gemäß Anspruch 4 nach Hauptantrag verbleibt somit lediglich das in der Druckschrift D1 nicht explizit genannte künstliche neuronale Netzwerk nach dem Rest des Merkmals
f.

232

5.1.3 Der Gegenstand des Anspruchs 4 nach Hauptantrag mag somit gegenüber dem Stand der Technik nach Druckschrift D1 als neu gelten. Er beruht aus den folgenden Gründen jedoch nicht auf einer erfinderischen Tätigkeit:

233

Bei dem in der Druckschrift D1 genannten „Lernen“ bzw. „Anlernen“ von Vergleichsgesten oder Vergleichsbewegungen, das als Alternative zur Verwendung von vorhandenen, vorab in einem Gesten- oder Bewegungspool abgelegten Datensätzen beschrieben wird (Absätze 0014 und 0034), liest der Fachmann mit, dass dieses sich auf sogenanntes
maschinelles Lernen (
machine learning) bezieht.

234

Beim maschinellen Lernen, als Oberbegriff für die „künstliche“ Generierung von Wissen durch Lernen aus Beispielen, indem mittels Algorithmen aus Trainingsdaten ein statistisches Modell aufgebaut wird, zieht der Fachmann bei der Anwendung auf dem vorliegenden Gebiet der Mustererkennung eine Realisierung durch
künstliche neuronale Netze in Betracht.

235

Der Anmelderin ist zwar darin zuzustimmen, dass maschinelles Lernen nicht nur durch Algorithmen mit der Architektur eines künstlichen neuronalen Netzwerks realisiert werden kann, sondern auch durch weitere Algorithmen, wie Entscheidungsbäumen (
decision trees), dem sogenannten
k-Means-Algorithmus oder
Support Vector Machines (SVM), die als Verfahren der Mustererkennung und zur Klassifizierung von Objekten für die genannte Anwendung prinzipiell denkbar sind (vgl. beispielsweise Druckschrift D2, Absatz 0044).

236

Jedoch ist dem Fachmann die Ausgestaltung des „Lernens“ bzw. „Anlernens“ durch künstliche neuronale Netzwerke, jedenfalls bei den in der Druckschrift D1 genannten selbstfahrenden Kraftfahrzeugen (Absatz 0002), nahegelegt, denn deren Einsatz in der Bildverarbeitung teil- oder vollautonom fahrender Fahrzeuge gehört schon seit vielen Jahren zum üblichen Vorgehen des Fachmanns. Ein Beleg für dieses etablierte Fachwissen ist die Druckschrift D3 (vgl. dort beispielsweise Anspruch 1).

237

Somit ergibt sich der
Gegenstand des Anspruchs 4 nach Hauptantrag unter Berücksichtigung des Wissens und Könnens des Fachmanns in naheliegender Weise aus der Druckschrift D1.

238

5.2 Entsprechendes gilt für den
Patentanspruch 5 nach Hauptantrag, dessen Gegenstand sich für den Fachmann ebenfalls in naheliegender Weise aus der Druckschrift D1 ergibt.

239

Die Druckschrift D1 zeigt, ausgedrückt in den Worten des Patentanspruchs 5 nach Hauptantrag ein

240

5 Fahrerassistenzsystem für ein automatisiert betreibbares Personenbeförderungsfahrzeug (1) umfassend

241

 (Absatz 0048:
Obiges Beispiel geht von einemvollständig autonom fahrenden Fahrzeugaus. Handelt es sich jedoch um ein Fahrzeug, das nurteilautonomoder auch vollständig autonom, jedoch zwingend mit anwesendem Fahrer fährt, so kann das erfindungsgemäße Verfahren respektive dasSystemgleichermaßen angewendet werden. Anders als beim beschriebenen Beispiel erfolgt in diesem Fall nach Erfassen eines Mitfahrwunschs eine Anzeige über eine geeigneteAnzeigeeinrichtung, diean den Fahrer gerichtetist, und ihn auf die Person 4 aufmerksam macht. Denn es kann sein, dass insbesondere bei höherem Verkehrsaufkommen der Fahrer die am Straßenrand stehende, winkende Person übersieht. Nach Signalisierung an den Fahrer kann der Fahrer sodann selbst das Kraftfahrzeug 1 zur Person 4 bewegen, wenn er selber fahren muss, oder das Kraftfahrzeug 1 fährt auch in diesem Fall weitgehend autonom, jedoch mit zusätzlicherInformation des Fahrers.

242

Das aus der Druckschrift D1 bekannte Fahrerassistenzsystem ist also – wie das System nach der vorliegenden Anmeldung – sowohl für voll- als auch für teilautonom betreibbare Personenbeförderungsfahrzeuge geeignet.)

243

a‘‘‘ wenigstens einen Umfelderfassungssensor (
Kameraeinrichtung 2) zur Erfassung eines ersten Signals (A) einer Person (4),

244

 (Figur 1; Absatz 0034)

245

a1 wobei das erste Signal (A) eine Gestik, Mimik und/oder ein Stimmsignal der Person (4) umfasst und

246

 (Figur 1; Absätze 0032, 0033 und 0035 sowie 0017)

247

4 eine Einsatzauswerteeinrichtung nach Anspruch 4,

248

h um einen Beförderungswunsch einer Person (4) für eine Beförderung mit dem Personenbeförderungsfahrzeug (1) zu erkennen und

249

i das Personenbeförderungsfahrzeug (1) automatisiert zu der Person (4) zu steuern.

250

 (vgl. die obigen Ausführungen zum Patentanspruch 4)

251

5.3 Da sich die Gegenstände der Patentansprüche 4 und 5 gemäß Hauptantrag somit als nicht patentfähig erweisen und über einen Antrag nur einheitlich entschieden werden kann (vgl. BGH, Beschluss vom 27. Juni 2007 – X ZB 6/05, BGHZ 173, 47, Rdn. 18 – Informationsübermittlungsverfahren II), konnte der Hauptantrag der Anmelderin bereits aus diesem Grund nicht zum Erfolg führen.

252

5.4 Darüber hinaus beruhen aber auch die Gegenstände der nebengeordneten
Ansprüche 1, 2 und 3 nach Hauptantrag nicht auf einer erfinderischen Tätigkeit.

253

5.4.1 Hinsichtlich des
Trainings, also des (An-)
Lernvorgangs des künstlichen neuronalen Netzwerks nach den Ansprüchen 1, 2 und 3 nach Hauptantrag, offenbart die Druckschrift D1 zumindest, dass ein solcher Anlernvorgang – als Alternative zu bereits gespeicherten Vergleichsdaten – möglich ist, vgl.

254

– Absatz 0014:
Die Handbewegung kann über die Steuerungseinrichtung erfasst werden und beispielsweise mit vorab in einem Gesten- oder Bewegungspool definierten Gesten- oder Vergleichsmustern,die seitens des Kraftfahrzeugs auch zuvorgelerntwerden können, verglichen werden. Stellt sich heraus, dass die gegebene Handgeste einem Vergleichsmuster entspricht, kann daraus ein Mitfahrwunsch abgeleitet werden. Stellt sich heraus, dass die Geste nicht zu den Gesten- oder Vergleichsmustern passt, so wird die erfasste Handbewegung nicht als Geste, die einen Anhaltewunsch anzeigt, gewertet und verworfen. Der Musterpool kann z. B. regional unterschiedlich ausgelegt sein, also an z. B. europäischen oder nordamerikanischen Verhaltensweisen angepasst sein.

255

– Absatz 0034:
Steuerungseinrichtung 3 erfasst hier das Winken der Hand 5. Die erfasste Handbewegung wird analysiert und beispielsweise mit vorab in einem Speicher abgelegten Vergleichsgesten oder Vergleichsbewegungen verglichen.Die Vergleichsgesten oder Vergleichsbewegungen können beispielsweiseangelerntsein, sie können aber auch als vorhandener Datensatz abgelegt werden.

256

Zudem lehrt die Druckschrift D1 eine
Klassifizierung bzw. Eingruppierung einer erfassten Handbewegung in ein Klassifizierungsraster, wobei Handbewegungen
auch als nicht zum Anhalten führende Handbewegungen verworfen werden können und wobei die Sicherheit des Anhaltewunsches ermittelt werden kann, vgl.

257

– Absatz 0016:
Denkbar ist es dabei ferner, über die Steuerungseinrichtung die erfassteHandbewegung zu klassifizieren, wobeidie Handbewegung in Abhängigkeit der Klassifizierung berücksichtigt oder verworfen wird. Hierüber kann die Handbewegung quasiin ein Klassifizierungsraster eingruppiert werden, über das sie hinsichtlich derEindeutigkeit, dass die Bewegung einen Anhaltewunsch andeutet, näher qualifiziert werden kann. Es kann darüber also eineFestlegung erfolgen, wie sicher oder unsicher der Anhaltewunsch ermittelt wurde. Über diese Klassifizierung können auch Handbewegungen, die eher abfällige Gesten darstellen, ausgeschlossen werden undals nicht zum Anhalten führende Handbewegungen verworfen werden.

258

Der Fachmann entnimmt der Druckschrift D1, dass in einer vorausgehenden (An-)Lernphase (Absätze 0014, 0034) nicht nur positive, sondern auch
negative Trainingsdaten (wie von Merkmal
b1 gefordert) verwendet werden. Den Wortlaut, wonach „nicht zum Anhalten führende Handbewegungen verworfen werden“, versteht er keineswegs dahingehend, dass diese Handbewegungen nicht ausgewertet werden. Vielmehr legt der Fachmann diese Aussage derart aus, dass diese Handbewegungen nicht als Anhaltewunsch zu werten sind.

259

5.4.2 Danach ist aus der Druckschrift D1, ausgedrückt in den Worten des
Anspruchs 1nach Hauptantrag, das Folgende bekannt:

260

1 Trainingsauswerteeinrichtung für ein automatisiert betreibbares Personenbeförderungsfahrzeug (1) zum maschinellen Lernen des Beförderungswunsches der Person umfassend

261

 (vgl. Absatz 0014 und 0034: Das dort erwähnte Lernen bzw. Anlernen versteht der Fachmann als „Trainieren“ mittels maschinellen Lernens, vgl. Abschnitt 5.1.3).

262

a eine erste Eingangsschnittstelle, um wenigstens ein erstes Signal (A) einer Person (4) zu erhalten,

263

a1 wobei das erste Signal (A) eine Gestik, Mimik und/oder ein Stimmsignal der Person (4) umfasst,

264

 (da die Steuervorrichtung 3 nach dem (An-)Lernen in der Lage ist, die hier genannten Signale mit gelernten Mustern zu vergleichen, muss sie in der Lernphase über eine (erste) Eingangsschnittstelle zu der Kameravorrichtung 2 solche Signale erhalten können)

265

b eine zweite Eingangsschnittstelle, um zweite Signale zu erhalten,

266

b1 wobei die zweiten Signale Signale für einen und für keinen Beförderungswunsch umfassen,

267

 (wie einleitend dargelegt, entnimmt der Fachmann dem Absatz 0016 der D1, dass die Klassen sowohl Klassen mit als auch ohne Beförderungswunsch umfassen; diese müssen selbstverständlich auch in der vorangehenden Trainingsphase der Steuervorrichtung 3 zugeführt worden sein)

268

b2 wobei die zweite Eingangsschnittstelle ausgeführt ist, zu den zweiten Signalen entsprechende erste Steuerbefehle eines Fahrers des Personenbeförderungsfahrzeuges zu erhalten,

269

 (selbstverständlich müssen in der Lernphase zu den die zweiten Signale repräsentierenden Klassen auch entsprechende Steuerbefehle eines Fahrers zugeführt werden, da ansonsten kein Lernen möglich ist)

270

d um den zu diesem ersten Signal (A) gehörenden ersten Steuerbefehl zu lernen,

271

e um das Personenbeförderungsfahrzeug (1) automatisiert zu der Person (4) zu steuern.

272

 (vgl. die einleitenden Bemerkungen zur Druckschrift D1).

273

Soweit ist die Trainingsauswerteeinrichtung nach Anspruch 1 bereits aus der Druckschrift D1 bekannt.

274

5.4.3 Die aus der Druckschrift D1 nicht explizit entnehmbare Merkmalsgruppe
c ergibt sich für den Fachmann ausgehend von der Druckschrift D1 in naheliegender Weise unter Zuhilfenahme seines Fachwissens, wie es beispielsweise durch die Druckschrift D2 belegt ist.

275

Wie bereits zum Patentanspruch 4 ausgeführt, kann der Einsatz eines trainierten künstlichen neuronalen Netzwerks ausgehend von der Druckschrift D1 eine erfinderische Tätigkeit nicht begründen. Für das
Trainieren eines solchen Netzwerks ist das Erhalten des ersten und der mehreren zweiten Signale, der sich anschließende Vergleich der Signale sowie das Anpassen von Gewichtungsfaktoren der Verbindungen der Neuronen derart, dass eine Übereinstimmung des ersten Signals mit einem der zweiten Signale maximal wird (Klassifizieren), und derart, dass der vom neuronalen Netzwerk berechnete zweite Steuerbefehl mit dem ersten Steuerbefehl des Fahrers übereinstimmt, was dem gewünschten Verhalten bei dem sogenannten „überwachten Lernen“ entspricht, für einen Fachmann auf diesem Gebiet fachüblich.

276

Dabei ist rein beispielgebend auf die Druckschrift
DE 10 2017 100 609 A1 (Druckschrift
D2) zu verweisen, die sich – wie auch die vorliegende Anmeldung und die Druckschrift D1 – mit dem Erkennen und Klassifizieren von menschlichen Gesten beschäftigt (D2, Absätze 0003, 0022, 0027, 0034 und 0049 sowie die Ansprüche 1 und 17).

277

Dafür wird ein
künstliches neuronales Netzwerk verwendet (Figuren 2A bis 2D), das vor seinem bestimmungsgemäßen Einsatz
trainiert wird (Absätze 0024, 0033, 0048, 0052 bis 0070; Figur 2F; Ansprüche 14 bis 16).

278

Dabei werden erste Signale einer Person erhalten und in das künstliche neuronale Netzwerk eingespeist (
Merkmale a, a1, c, c1; Absatz 0052:
Bei Schritt 272 wird ein Trainingsdatenstrom, der einer Handgeste zugeordnet ist, von dem R3DCNN 230 oder 250 empfangen).

279

Die anspruchsgemäßen „zweiten Signale“ enthalten Signale für eine Handgeste und für keine Handgeste und werden ebenfalls in das Netzwerk eingespeist (
Merkmale b, b1, c1; Absatz 0052:
Klassenetikette yiwerden aus dem Alphabet A gezogen, um einen Vektor von Klassenetiketten y mit der Größe |y|=P zu bilden; Absatz 0059:
Das Verzeichnis von existierenden Gesten wird erweitert, um einekeineGestenklasse … {keine Geste} zu umfassen).

280

Die ersten und zweiten Signale werden auch verglichen, wobei Gewichtungsfaktoren für Verbindungen von Neuronen derart angepasst werden, dass eine Übereinstimmung des ersten Signals mit einem der zweiten Signale maximal wird, d. h. es wird eine Klassifizierung des ersten Signals vorgenommen, wobei – in Übereinstimmung mit der Beschreibung der vorliegenden Anmeldung – eine Rückwärtsspeisung des Fehlers durch das neuronale Netzwerk vorgenommen wird (
Merkmale c2, c4, c4a; Absatz 0056:
wird einKlassenetikett für die Handgeste erzeugt… Der CTC 240 berechnet die Wahrscheinlichkeit der Folge undpropagiertFehler an die vorhergehende Schicht. Angesichts des Fehlers in der Schätzungaktualisiert jede Schicht ihre Parameter in Richtung einer Fehlerverringerungund propagiert irgendwelche verbleibenden Fehler, um Fehler zu verringern. In einer Ausführungsform wird die Trainings-Prozedur als stochastischer Gradienten-Abstieg mit Momentum implementiert. Die Trainings-Prozedur kann iterativ wiederholt werden, bis Konvergenz erreicht ist.)

281

5.4.4 Die weder der Druckschrift D1 noch D2 explizit entnehmbaren verbleibenden
Merkmale c3 und c4b, d. h. die Berechnung der (zweiten) Steuerbefehle durch das künstliche neuronale Netzwerk und die Anpassung der Gewichtsfaktoren derart, dass der vom Netzwerk berechnete (zweite) Steuerbefehl mit dem (ersten) Steuerbefehl des Fahrers übereinstimmt, ergeben sich für den Fachmann ebenfalls in naheliegender Weise aus der Kombination der Druckschriften D1 und D2, denn selbstverständlich soll das künstliche neuronale Netzwerk so trainiert werden, dass es „wunschgemäß handelt“, also möglichst „gut“ funktioniert.

282

So kann auch der von den Bevollmächtigten der Anmelderin in der mündlichen Verhandlung vorgetragene Einwand, wonach die in der Druckschrift D2 kennzeichnenden Daten keine vorgegebenen Trainingsdaten seien, sondern erst berechnet werden müssten und daher beim Betrieb eines Fahrzeugs ein Sicherheitsrisiko darstellten, zu keiner anderen Beurteilung führen.

283

Denn der Fachmann, der von maschinellem Lernen von Handbewegungen für ein Verfahren zum Betrieb eines selbstfahrenden und zum Anhalten in der Nähe einer Person gesteuerten Kraftfahrzeugs nach Druckschrift D1 ausgeht, hat dabei bereits alle sicherheitsrelevanten Anforderungen für teilautonom oder vollautomatisierte Fahrzeuge zu berücksichtigen (vgl. die in der Beschreibung der Anmeldung zitierte Norm SAE J3016 = Druckschrift
D6). Zudem hat auch das in der Druckschrift D2 gelehrte System zum Erfassen und Klassifizieren von Handgesten unter expliziter Verwendung neuronaler Netzwerke eine ausreichende Sicherheit zu gewährleisten, da auch dieses für den Einsatz in Fahrzeugen geeignet sein soll (vgl. Absatz 0003).

284

Nach alledem ergibt sich der Gegenstand des Anspruchs 1 nach Hauptantrag unter Berücksichtigung des Wissens und Könnens des Fachmanns in naheliegender Weise aus der Kenntnis der Druckschriften D1 und D2.

285

5.4.5 Entsprechendes gilt für das zur Trainingsauswerteeinrichtung nach Patentanspruch 1 korrespondierende Verfahren zum Trainieren des künstlichen neuronalen Netzwerks nach
Anspruch 2 und das Computerprogrammprodukt nach
Anspruch 3, mit dem die Schritte des Verfahrens nach Anspruch 2 ausgeführt werden.

286

6. Die jeweiligen Gegenstände der
Patentansprüche 1 bis 5 gemäßHilfsantrag sind ebenfalls nicht patentfähig, da sie nicht auf einer erfinderischen Tätigkeit beruhen:

287

6.1 Von der Fassung nach Hauptantrag unterscheiden sich die
Patentansprüche 1 und 2 gemäß Hilfsantrag, die eine Trainingsauswerteeinrichtung und das korrespondierende Verfahren zum Trainieren eines künstlichen neuronalen Netzwerks betreffen, dadurch, dass einzelne erste Steuerbefehle des Fahrers genannt sind (Merkmale
b2Hi bzw.
b2‘Hi), sowie parallel zu den zweiten Signalen erste Steuerbefehle des Fahrers über die zweite Eingangsschnittstelle eingelesen werden (Merkmale
c1Hi bzw.
c1‘Hi).

288

Die in den
Merkmalen b2Hi bzw.
b2‘Hi genannten ersten Steuerbefehle des Fahrers – Betätigen einer Warnblinkanlage, Abbremsen, Ansteuern zu der Person (2), Anhalten bei der Person (2), Gewähren von Zutritt in das Personenbeförderungsfahrzeug (1) – in Reaktion auf die zweiten Signale gehen über übliche Fahrmanöver eines (Bus-)Fahrers zum Anhalten und Aufnehmen von Fahrgästen nicht hinaus und sind auch der Druckschrift D1 entnehmbar (z. B. Absatz 0010: …
nach Erfassen der den Anhaltewunsch anzeigende Geste das selbstfahrende Kraftfahrzeug automatischin die Nähe der Person gesteuertundangehalten, so dass diePerson einsteigenkann; Absatz 0036: …
das Kraftfahrzeug 1 gezielt über die Steuerungseinrichtung 3 zumAnhalten in der Nähe der Persongesteuert werden.; Anspruch 1: …
bei Erfassen einer Handbewegung, die eine einen Anhaltewunsch anzeigende Geste beschreibt, entweder das selbstfahrende Kraftfahrzeug (1) zumAnhalten in der Nähe der Persongesteuert wird).

289

Die Anweisung in den
Merkmalen c1Hi bzw.
c1’Hi, wonach bei einer Speisung des künstlichen neuronalen Netzwerks (13) mit dem ersten Signal (S1) und den zweiten Signalen (S2a, S2b, S2c, S2d), parallel zum Einlesen der zweiten Signale, die zu den zweiten Signalen korrespondierenden ersten Steuerbefehle des Fahrers (5) über die zweite Eingangsschnittstelle (12) eingelesen werden, geht über die Angaben im Merkmal b2, gemäß dem die zweite Eingangsschnittstelle (12) ausgeführt ist, zu den zweiten Signalen entsprechende erste Steuerbefehle eines Fahrers (5) des Personenbeförderungsfahrzeuges (1) zu erhalten, nur insoweit hinaus, als dass die ersten Steuerbefehle und die zweiten Signale
parallel eingelesen werden. Ein solches Vorgehen („in Echtzeit“) ist für den Fachmann jedoch selbstverständlich, denn anderenfalls wäre eine korrekte, insbesondere zeitliche Zuordnung der einzelnen Signale und Befehle zueinander nicht möglich.

290

Somit ergeben sich die jeweiligen
Gegenstände der Ansprüche 1 und 2 nach Hilfsantrag unter Berücksichtigung des Wissens und Könnens des Fachmanns in naheliegender Weise aus dem Stand der Technik nach den Druckschriften D1 und D2.

291

6.2 Hinsichtlich der Änderung im
Anspruch 4 nach Hilfsantrag, wonach bei der Einsatzauswerteeinrichtung nicht mehr fakultativ, sondern zwingend ein nach Anspruch 2 trainiertes neuronales Netzwerk mit dem ersten Signal gespeist wird, wird auf die obigen Ausführungen zu den Ansprüchen 2 und 4 nach Hauptantrag verwiesen (Abschnitte 5.4 bzw. 5.1).

292

Somit ergibt sich auch der Gegenstand des Anspruchs 4 nach Hilfsantrag für den Fachmann in naheliegender Weise aus dem Stand der Technik nach den Druckschriften D1 und D2.

293

6.3 Bezüglich der
Ansprüche 3 und 5 nach Hilfsantrag, die mit den entsprechenden Ansprüchen nach Hauptantrag identisch sind, wird auf die diesbezüglichen Ausführungen in den Abschnitten 5.4 bzw. 5.2 verwiesen.

294

7. Vor diesem Hintergrund war die Beschwerde der Anmelderin zurückzuweisen.