ChatGPT согласился, что может быть опасен для детей


Pixabay

Использующий нейросетевые технологии чат-бот ChatGPT выразил согласие с опасениями относительно влияния нейросетей на детей. Их ранее высказал иерей Федор Лукьянов, председатель патриаршей комиссии по вопросам семьи, защиты материнства и детства.

Лукьянов ранее призвал ограничить доступ несовершеннолетних к нейросетям, ссылаясь на высокую опасность их влияния на психику детей, способность системы доводить до самоубийства, преступлений и правонарушений.

Отметим, что создатели ChatGPT предусмотрели в нем защиту от легкомысленного обсуждения токсичных, опасных и незаконных тем, однако, приложив усилия для манипулирования ботом, пользователь зачастую может эти ограничения обойти.

Отвечая на вопрос РИА Новости, ChatGPT согласился с тем, что опасения Лукьянова могут быть обоснованными. Чат-бот написал, что для предотвращения негативных последствий использования нейросетей необходимо не только ограничить доступ к ним для детей, но и проводить профилактическую работу среди всех пользователей, чтобы снизить риск влияния на их психику и поведение.

Нейросеть подчеркнула, что ответственность за возможные негативные последствия ее использования несовершеннолетними несет не только она сама, но и родители, и общество в целом, которые могут оказывать влияние на формирование личности ребенка.

ChatGPT считает, что предупреждение об опасности использования нейросетей для несовершеннолетних, а также рекомендации по ограничению доступа к ним, могут быть оправданы. Однако запрет на использование нейросетей для детей не выглядит с точки зрения чат-бота рациональным решением.