Tel: 061 261 57 67
Warenkorb
Ihr Warenkorb ist leer.
Gesamt
0,00 CHF
  • Start
  • Bücher
  • Schließen bei unsicherem Wissen in der Künstlichen Intelligenz

Schließen bei unsicherem Wissen in der Künstlichen Intelligenz

Angebote / Angebote:

In unüberschaubarer Fülle werden derzeit in der Künstlichen Intelligenz Formalismen vorgeschlagen, die den sogenannten gesunden Menschenverstand in Betracht ziehen und damit den unvollständigen Charakter verfügbarer Informationen verschleiern können. Der potentielle Benutzer ist etwas verwirrt durch die Vielfalt der ihm vorgeschlagenen Methoden, insofern als diese in einer vielfältigen weitverstreuten Literatur dargestellt sind, wo wenig Vergleichselemente zwischen den von verschiedenen Denkschulen vorgeschlagenen Ansätzen existieren. Dies kam einer Gruppe französischer Wissenschaftler zu Bewußtsein anläßtich einer ersten Arbeitstagung in Prelenfrey (Isere) am 34 März 1986, der Fachgruppe lnferenz und Kontrolle des Forschungsprogramms GRECO der Künstlichen Intelligenz, die kurz zuvor mit Unterstützung des Forschungsministeriums und des CNRS entstanden war. Es stellte sich in diesen zwei Tagen heraus, daß dieselben Beispiele zur Illustration und Begründung oftmals radikal verschiedener, teils symbolischer, teils auf numerischen Unsicherheitstheorien basierender Ansätze benutzt wurden. Wenig später wählte eine Arbeitsgruppe, die aus neun Personen bestand (Philippe Besnard, Marie-Odile Cordier, Didier Dubois, Luis Farift.as del Cerro, Christine Froidevaux, Yves Moinard, Henri Prade, Camilla Schwind et Pierre Siegel), den Namen Lea Sombe (aus im folgenden offensichtlichen Gründen) und beschloß, eine Vergleichsstudie an Hand eines anschaulichen Beispiels durchzuführen.
Folgt in ca. 10 Arbeitstagen

Preis

71,00 CHF