Killer Robot z Chatt: Niebezpieczeństwo z zdigitalizowanej przyszłości!
Killer Robot z Chatt: Niebezpieczeństwo z zdigitalizowanej przyszłości!
Krone AT, Österreich - Niepokojący projekt spowodował sensację w przestrzeni cyfrowej: deweloper, który znał się pod nazwą STS 3D, przedstawił robota kontrolowanego przez AI, który jest w stanie celować w karabin i strzelać do nich. System zademonstrowany w wideo ostrzega o poleceń głosowych i natychmiast reaguje. Spowodowało to nie tylko emocje w entuzjastach technologii, ale także głośno sprawiło krytyczne głosy. Użytkownik Reddit humorystycznie wyjaśnił, że była to pierwsza wersja prototypu „Skynet”, podczas gdy niebezpieczeństwa związane z nadużywaniem takich technologii nie powinny być pomijane, jak pokazuje raport Krone ( krone ).
OPENAI STEJES
Pomimo imponujących osiągnięć technicznych Openai nie jest zadowolony z tego rozwoju. Dostawca technologii zmienił swoje wytyczne rok temu, aby umożliwić użycie swoich produktów przez wojsko, ale natychmiast został zmuszony do rozpoczęcia kroków przeciwko STS 3D. Rzecznik Openai potwierdził, że korzystanie z jej usług do tworzenia lub używania broni jest nadal zabronione, a deweloper został poproszony o zatrudnienie jego działań.
Równolegle na ten wybuchowy temat postęp w dziedzinie sztucznej inteligencji jest wciąż szybki. Openai wprowadził nowe modele AI, zwane O3 Mini i O3, które mogą rozwiązywać abstrakcyjne zadania o rekordowej tempie 85 procent, przedstawione przez Heise ( heise ). Modele te wymagają ogromnych zasobów obliczeniowych i mogą zwiększyć koszt miesięcznej subskrypcji do 2000 USD. Takie zmiany pokazują potencjał sztucznej inteligencji w różnych aplikacjach, ale ponownie rodzą pytania dotyczące bezpieczeństwa i nadużycia technologii AI. Poprzednie badanie ataków phishingowych AI pokazuje również, w jaki sposób takie modele można stosować zarówno do ataków, jak i wykrywania zagrożeń.Details | |
---|---|
Ort | Krone AT, Österreich |
Quellen |