25.11.2024, 14:58 Uhr
Laut Mitteilung hat Robeco seine ersten aktiven börsengehandelten Fonds an der SIX Swiss Exchange notiert. Die aktiven ETFs waren seit dem 15. Oktober an der Frankfurter Börse notiert, weitere europäische...
«Die Gesellschaft fordert Schutz vor Risiken, die Künstliche Intelligenz mit sich bringen kann. Die Einbeziehung von KI-Erwägungen in die ESG-Analyse von Unternehmen durch Investoren wird dabei helfen», schreiben Marcel Stötzel, Analyst und Portfoliomanager, Christine Brueschkef, Analystin und Toby Sims, Investment Writer bei Fidelity.
Das Spektrum der von KI ausgehenden Risiken sei gross: Am einen Ende stehen Weltuntergangsszenarien mit KI, die ihre Schöpfer nicht kontrollieren könnten. Zu den unmittelbareren Bedrohungen gehörten die Verbreitung von Fehlinformationen durch Large Language Models (LLMs).
«Die Komplexität der Technologie spiegelt sich in den Bemühungen der Behörden wider, die zwar da sind, aber nur wenig globalen Zusammenhalt sehen. Auch die Versuche der Branche, sich selbst zu regulieren, haben nur wenig gebracht», schreibt Fidelity. Grosse Kapitaleigner hätten jedoch bereits bei ESG-Themen bewiesen, dass sie in wichtigen Fragen etwas bewegen könnten und sie Unternehmen bei Verstössen zur Verantwortung ziehen. Angesichts der potenziellen Gefahren im Zusammenhang mit KI sei die Zeit reif, dass Investoren auch hier aktiv werden.
Branchenführer wie Sam Altman von OpenAI oder Tech-Pioniere wie Elon Musk haben bereits ihren Wunsch nach mehr KI-Sicherheit geäussert. In einer aktuellen Studie hat das Centre for the Governance of AI (GovAI) eine 50 Punkte umfassende Liste mit Best-Practice-Massnahmen für KI vorgeschlagen. Die Mehrheit adressierter Akademiker und Wirtschaftsführer stimmte den Vorschlägen zu. Dies scheine ermutigend. Dennoch hätten die Unternehmen Massnahmen nur zögerlich umgesetzt, da sie in einer Zeit der Kosteneinsparungen und der Absicherung gegen die Rezession kommen.
Sicherheitsmassnahmen werden laut den Autoren zunehmen, wenn die Technologie ausgeklügelter wird. OpenAI zum Beispiel hat weniger Informationen über die Architektur hinter seinem neuesten ChatGPT zur Verfügung gestellt, sowohl aus Wettbewerbsgründen als auch - wie es heisst - um das Risiko zu minimieren, dass die Technologie von Akteuren mit schlechten Absichten ausgenutzt werde. Damit werde die Transparenz im Interesse der Sicherheit und der Marktführerschaft beeinträchtigt. OpenAI hat jedoch angekündigt, dass es seine KI-Modelle künftig von Dritten prüfen lassen will. Ein externes Audit von KI-Unternehmen könnte durchaus ein notwendiger Schritt sein, da die Besorgnis über den Missbrauch von KI zunimmt.
«Es ist nicht das erste Mal, dass Unternehmen ihr Verhalten im Zuge einer existenziellen Bedrohung ändern müssen. Als Reaktion auf die Umweltkrise hat sich der nachhaltige Kapitalismus zu einer starken Kraft für positiven Wandel entwickelt. Zwar geben Regulierungsbehörden den Ton an, aber Geld regiert die Welt. Die Drohung es abzuziehen, wenn Firmen Standards nicht einhalten, hat die Unternehmen gezwungen, sich mit ihren Umweltauswirkungen auseinanderzusetzen», heisst es bei Fidelity.
Fragen im Zusammenhang mit künstlicher Intelligenz liessen sich durch leicht messbare Angaben mit aktuellen ESG-Analysen verbinden. «Bei Mitarbeiterbelangen könnten Anleger beispielsweise nach der Anzahl Mitarbeiter fragen, die sich mit KI-Sicherheit befassen, oder nach dem Grad ihrer Autorität im Unternehmen. Dann gibt es noch Risikoüberprüfungen. Wie überwachen die Unternehmen diese und was tun sie, um sich zu schützen?»
Die jüngste Arbeit der Collective Impact Coalition for Digital Inclusion, an der Fidelity International beteiligt ist, sei eine der wenigen konzertierten Bemühungen von Finanzinstituten, mit Technologieunternehmen über KI zu sprechen. Sie stellte fest, dass nur etwas mehr als 10 Prozent der 150 führenden KI-Unternehmen ihre Verpflichtungen in Bezug auf ethische KI offengelegt haben. Einige hatten beispielweise Ethikrichtlinien für ihre Mitarbeiter aufgestellt. Diese als Voraussetzung für eine sichere KI-Nutzung zu verankern, wäre für die meisten Unternehmen ein vernünftiger Schritt und einer, nach dem auch Investoren durchaus fragen können.
«Die Anleger sind sich der Gefahren künstlicher Intelligenz für ihre Portfolios wohl noch nicht bewusst. Viele halten stillschweigend KI-Unternehmen wie Microsoft und Nvidia in ihren nachhaltigen Beständen. Die Frage ist, wofür die Beteiligungen stehen: Existenzielle Bedrohung oder nachhaltige Investition? Künstliche Intelligenz könnte den Weg für eine Reihe von Fortschritten ebnen aber auch Demokratien demontieren. Durch die Integration von KI-Analysen in die ESG-Bewertung sollten Anleger den Unterschied erkennen und in der Lage sein, schlechte Akteure zur Verantwortung zu ziehen», so das Fazit von Fidelity.