AORA OJI
Novas de la mundo, simple reportada en elefen
2021 ·
2020 ·
2019 ·
2018 ·
2017 ·
2016 ·
2015 ·
2014 ·
2013
26 marto 2016
Microsoft ia demanda ce on pardona lo per crea un inteleto artifisial capas de conversa, cual ia deveni rapida un raziste e negor de la Olocausto.
Ma a la mesma tempo, lo ia clari ce la opinas de Tay resulta de sua eleva, e no de sua natur. La aveni confirma lo cual nos ia sabe ja: persones en la interede pote es cruel.
Tay ia es intendeda per interata con persones de entre 18 e 24 anios en redes sosial, ma lo ia esperia “un ataca coordinada par un sugrupo de persones” pos sua publici en la semana pasada.
Pos 24 oras, la ecipo de Microsoft ia desativi Tay per fa “ajustas”.
Ier, Peter Lee, la xef de rexerca ia dise ce la compania es “profonda repentosa per la tuitas nonintendeda ofendente e cruel” e ia sutrae Tay de Twitter per la futur prosima.
Lee ia ajunta: “Tay es aora estralinia, e nos va atenta retrae lo sola cuando nos es serta ce nos pote previde intendes malvolente cual desacorda con nosa prinsipes e valuas.”
Tay ia es desiniada per aprende de sua interatas con persones vera a Twitter. Saisinte la momento, alga usores ia deside nuri lo con informas raziste e ofendente.
En Xina, on ia reata diferente. Un conversador simil ia es ja publicida par Microsoft a usores xines, ma con resultas plu bon: sirca 40 milion persones interata con lo, deletada par sua racontas e parletas.
Lee ia confesa ce un era en la desinia ia permete ce Tay deveni cruel.
“An si nos ia prepara contra multe spesies de malusa de la sistem, nos ia fali imajina esta modo esata de ataca. Como resulta, Tay ia tuita parolas e imajes estrema nonconveninte e condenable. Nos aseta la culpa intera per no previde esta posible.”
Esta paje es presentada con la lisensa CC Attribution-Share Alike 4.0 International.
Lo ia es automatada jenerada de la paje corespondente en la Vici de Elefen a 11 agosto 2024 (12:42 UTC).