Опасная игра в соцсетях: в США умерли десятки детей от удушья
Опасная игра в соцсетях: в США умерли десятки детей от удушья

Опасная игра в соцсетях: в США умерли десятки детей от удушья

"Игра в удушение" имеет потенциально смертельные последствия, поскольку игрокам приходится временно удушить себя, ограничивая доступ кислорода к мозгу. Это звучит ужасающе, но приблизительные подсчеты показывают, что около 10% подростков в США, возможно, играли в такую игру по крайней мере один раз, пишет MedicalXpress.

Иллюстративное фото

К сожалению, есть еще больше: The Skullbreaker Challenge, Tide Pod Challenge и Car Surfing – это лишь некоторые из смертоносных игр, популяризированных через социальные сети, в частности в Snapchat, Instagram, TikTok, YouTube и X – ранее Twitter. Многие из этих игр достигают более одного поколения, а некоторые возрождаются.

Последствия этих так называемых игр могут оказаться смертельными. Например, в Skullbreaker Challenge два человека выбивают ноги из-под третьего лица, что приводит к падению и потенциальному получению длительных травм. Проглатывание стручков моющего средства может привести к удушью и серьезной болезни. Падение с автомобильного серфинга может привести к серьезной травме головы.

Трудно определить точное количество смертей подростков в результате этих видов деятельности. Данных не хватает, отчасти из-за того, что базы данных общественного здравоохранения плохо отслеживают эти действия — некоторые смерти могут быть неправильно классифицированы как самоубийства — и отчасти из-за того, что большинство существующих исследований устарели.

В отчете Центра по контролю и профилактике заболеваний за 2008 год было обнаружено, что 82 ребенка в США за 12 лет скончались после игры в духоте. Около 87% участников были мальчиками, большинство были одиноки, а их средний возраст был не более 13 лет. Очевидно, что для определения серьезности проблемы необходимы новые обновленные исследования.

Напомним, портал "Комментарии" сообщал, что семья 17-летнего подростка подала в суд на техническую компанию, утверждая, что ее бот Character.AI также сказал ему наносить себе повреждения, а также убить своих родителей.




Источник материала
loader