В Духовном управлении мусульман Казахстана опубликовали решения фетв про создание видео с помощью искусственного интеллекта, передаёт Centralmedia24.

Как объяснили в управлении, дипностальгия (Deep Nostalgia – глубокая ностальгия) – технология анимации фотографий на основе нейросетевых алгоритмов. Её часто часто используют с целью оживления образа усопших, то есть те самые трендовые видео в соцсетях как уже погибшие люди на фото начинают двигаться и улыбаться.

«Не следует использовать технологию дипностальгии», – считают в ДУМК.

Их основные аргументы заключаются в следующем:

  • унижение, неуважение к умершим запрещено шариатом. Неуместная речь за умершим, оживляющая его образ, относится к неуважению;
  • демонстрация улыбающегося или хмурящегося изображения умершего с помощью технологий считается зловещим предсказанием. Это противоречит шариату;
  • изменение образа умершего без разрешения является нарушением его личных прав. Это этически и религиозно неверно.

При этом в управлении отметили, что можно использовать технологию дипностальгии в соответствии с условиями:

  • не с целью принижать, высмеивать или оскорблять умершего;
  • не причинять кому-либо вреда – создаваемое видео не должно усиливать горе родственников.
  • наличие разрешения родственников: фотография умершего – его личное право. Поэтому перед его использованием необходимо получить разрешение от родственников;
  • не должно быть обмана. Распространение таких видео в обществе в официальных документах или в виде настоящих видео категорически запрещено.

«По словам специалистов-психологов, хотя технология дипностальгии изначально даёт чувство комфорта, со временем она может вызвать эмоциональный и психологический стресс. Это может привести человека к депрессии, нарушениям сна, негативным последствиям, таким как психологическая зависимость и изоляция от общества», – добавили в ДУМК

Кроме того на решение фетвы также вынесли вопрос использования дипфейков.

Дипфейк (от англ.deep learning – «глубокое обучение» и fake – «подделка») – технология создания фальшивых видеозаписей с использованием искусственного интеллекта.

В управлении отметили, что ислам не запрещает развитие науки и технологий, открытия. Однако это развитие должно основываться на человеческом благе, справедливости, морали и осуществляться в рамках шариата. Поэтому любая технология, применяемая в добрых целях – допустима, а в злых, вредных – запрещена.

«Согласно шариату, с помощью технологии Deepfake категорически запрещено делать то, что человек на самом деле не говорит, или делать то, что он не делал, распространять дезинформацию. Распространение такой дезинформации нарушает спокойствие страны и создаёт хаос внутри общества. Если не предотвратить, последствия нанесут ущерб обществу, подорвав солидарность страны», – говорится в сообщении.

Вместе с тем в ДУМК считают, что такой контент может напугать людей и поставить под угрозу их жизнь, а исламская религия рассматривает безопасность человеческой жизни как одну из самых важных целей. Даже издевательства в виде шуток строго запрещены в шариате.

Ранее в ДУМК высказались о законе, запрещающем ношение никаба в Казахстане.

Поделиться:

1 комментарий

  1. This design is incredible! You most certainly know how to keep a reader entertained. Between your wit and your videos, I was almost moved to start my own blog (well, almost…HaHa!) Fantastic job. I really enjoyed what you had to say, and more than that, how you presented it. Too cool!

Оставить комментарий

Свидетельство о постановке на учет периодического печатного издания, информационного агентства и сетевого издания № KZ10VPY00111108

Сканируй

Exit mobile version