Departament Obrony USA podobno rozważa zakończenie współpracy z firmą Anthropic, zajmującą się sztuczną inteligencją. Według doniesień medialnych, powołujących się na przedstawiciela rządu, powodem jest naleganie firmy na wprowadzenie ograniczeń w korzystaniu z jej modeli przez armię USA.
Pentagon wzywa cztery firmy zajmujące się sztuczną inteligencją, aby zezwoliły wojsku na używanie ich narzędzi do „wszelkich zgodnych z prawem celów”, w tym do opracowywania broni, gromadzenia informacji wywiadowczych i operacji na polu walki.
Anthropic jednak nie zgodził się na te warunki i, jak wynika z raportu, cierpliwość Pentagonu wyczerpała się po miesiącach negocjacji. Inne firmy to OpenAI, Google i xAI.
„Cierpliwość się wyczerpała”.
Rzecznik Anthropic powiedział, iż firma nie omawiała z Pentagonem wykorzystania swojego modelu sztucznej inteligencji Claude do konkretnych operacji. Rozmowy z rządem USA koncentrowały się dotychczas na różnych aspektach polityki użytkowania, w tym na jasnych ograniczeniach dotyczących w pełni autonomicznej broni i masowego nadzoru w kraju. Żaden z nich nie dotyczył bieżących operacji.
„Wall Street Journal” poinformował w piątek, iż model sztucznej inteligencji Claude, opracowany przez firmę Anthropic we współpracy z firmą Palantir, został wykorzystany w operacji schwytania byłego prezydenta Wenezueli Nicolása Maduro przez armię amerykańską . Oświadczenie Pentagonu nie pozostało dostępne.






