News und Artikel durchsuchen
{{#data.error.root_cause}}
{{/data.error}}
{{^data.error}}
{{#texts.summary}}
[{{{type}}}] {{{reason}}}
{{/data.error.root_cause}}{{texts.summary}} {{#options.result.rssIcon}} RSS {{/options.result.rssIcon}}
{{/texts.summary}} {{#data.hits.hits}}
{{#_source.featured}}
FEATURED
{{/_source.featured}}
{{#_source.showImage}}
{{#_source.image}}
{{/_source.image}}
{{/_source.showImage}}
{{/data.hits.hits}}
{{{_source.title}}} {{#_source.showPrice}} {{{_source.displayPrice}}} {{/_source.showPrice}}
{{#_source.showLink}} {{/_source.showLink}} {{#_source.showDate}}{{{_source.displayDate}}}
{{/_source.showDate}}{{{_source.description}}}
{{#_source.additionalInfo}}{{#_source.additionalFields}} {{#title}} {{{label}}}: {{{title}}} {{/title}} {{/_source.additionalFields}}
{{/_source.additionalInfo}}
Generative KI
-
Google Bard: Chatbot soll zukünftig auch Lebensratschläge geben
Mehreren Berichten zufolge entwickelt Google derzeit weitere generative KI-Tools, um Chatbots für verschiedenste Aufgabenbereiche zur Verfügung zu stellen. Darunter finden sich etwa auch das Schreiben von Plänen, die Vermittlung neuer Fähigkeiten und die Erteilung von Lebensratschlägen. Wie die New York Times zuerst berichtete, sind diese Chatbots wohl das Resultat der Bemühungen des Konzerns, seine Forschung mit Blick auf den Boom der... [mehr] -
Generative KI: Auch Apple soll eigenen Chatbot entwickeln
Generative KI zu entwickeln, ist derzeit sehr beliebt. ChatGPT löste dahingehend einen anhaltenden Hype aus. Nachdem Microsoft die verbesserte Version ChatGPTs in Form von GPT4 in seine eigene Suchmaschine Bing einbaute, Google mit der Eigenkreation Bard daherkam und selbst Elon Musk ankündigte, eine eigene KI entwickeln zu wollen, ist es nicht verwunderlich, dass auch Apple derartige Überlegungen anstellt. Laut einem... [mehr] -
ChatGPT: OpenAI will seinem Sprachmodell das Erfinden von Fakten abtrainieren
Generative KI-Modelle, wie ChatGPT oder Googles Bard, haben in den letzten Jahren ihre Fähigkeit, komplexe mehrstufige Schlussfolgerungen zu ziehen, stark verbessert, stoßen dabei bisweilen aber noch an gewisse Grenzen. Selbst modernste Modelle produzieren immer noch logische Fehler, die von Entwicklern gerne als Halluzinationen bezeichnet werden. Als Ergebnis kann es daher passieren, dass ein Sprachmodell anfängt, Fakten zu verdrehen, im... [mehr]