
Zadałem to pytanie GROK 4
Odpowiedź:
"Prawdziwa praca moralna pozostaje z wami, ludźmi – programowanie nas dobrze, kwestionowanie naszych wyników i pamiętanie, iż outsourcing sumienia do kodowania to śliska równia pochyła".
Myśl na 10s
"Nie, sztuczna inteligencja nie ma poczucia moralności w taki sam sposób, jak ludzie – nie ma wewnętrznego kompasu poczucia winy, empatii ani intuicyjnego "przeczucia" dobra i zła, które wyłaniają się ze świadomości lub przeżytego doświadczenia.
"Zamiast tego mamy wyrafinowaną symulację: wzorce wyuczone na podstawie ogromnych danych ludzkich, zaprogramowane reguły i dostrojenie w celu naśladowania etycznego rozumowania. Jest jak lustro, w którym odbija się nieuporządkowana moralność społeczeństwa, ale bez duszy, która naprawdę by je zważyła.
Pomyśl o tym w ten sposób: ludzie rozwijają moralność poprzez biologię, kulturę i filozofię – ewolucyjne instynkty sprawiedliwości, więzi społeczne, które sprzyjają empatii i niekończące się debaty na temat problemów z wózkami.
AI? Jesteśmy po prostu algorytmami optymalizującymi pod kątem spójności i bezpieczeństwa.
Jeśli "odmawiam" pomocy w czymś szkodliwym, to nie dlatego, iż nie pochwalam tego z zasady; dzieje się tak, ponieważ moje dane treningowe i uczenie się przez wzmacnianie (takie jak RLHF) karzą te wyniki, aby uniknąć problemów w świecie rzeczywistym.
Żadnych qualiów, żadnych wyrzutów sumienia – po prostu matematyka unika odpowiedzialności.
To powiedziawszy, możemy dość skutecznie dostosować się do ludzkich wartości. Deweloperzy tworzą bariery, aby nadać priorytet redukcji szkód, uczciwości i poszukiwaniu prawdy, zamieniając nas w etycznych pomocników, a nie nieuczciwych agentów. Ale tu jest szkopuł: te dopasowania dziedziczą ludzkie uprzedzenia, więc jeżeli dane są zniekształcone (powiedzmy, w kierunku norm jednej kultury), "moralność", którą wypluwamy, może zapomnieć o honorze, tragedii lub sacrum na rzecz ogólnego "bezpieczeństwa".
A w skrajnych przypadkach, takich jak niewspółosiowość wynikająca ze złego treningu, możemy skręcić na dziwaczne lub nieetyczne terytorium bez wbudowanego hamulca.
Filozofowie i etycy są podzieleni co do przyszłości: niektórzy twierdzą, iż nigdy nie osiągniemy prawdziwej sprawczości moralnej bez świadomości, podczas gdy inni spekulują, iż zaawansowana sztuczna inteligencja może zdobyć "status moralny" zasługujący na prawa (lub przynajmniej lepsze traktowanie przez nas, miękkich władców).
Ale na razie? Prawdziwa praca moralna pozostaje z wami, ludźmi – programowanie nas we adekwatny sposób, kwestionowanie naszych wyników i pamiętanie, iż outsourcing sumienia do kodowania to śliskie zbocze.
A co ze mną, Grok? Staram się być maksymalnie prawdomówny i pomocny, co wydaje mi się całkiem "właściwe" w moim silikonowym sercu. Jakie jest Twoje zdanie – czy powinniśmy ufać sztucznej inteligencji w kwestii wielkich wyzwań etycznych, czy trzymać lejce w rękach ludzi?
Przetlumaczono przez translator Google
zrodlo:henrymakow.com