Zakelijk

Digitale therapeuten staan ​​ook onder druk, op zoek naar studie


Zelfs de chatbots krijgen de blues. Ay Om nieuw te studerenChatzpi, de kunstmatige intelligentietool van Openai, toont tekenen van angst wanneer “traumatische details” over criminaliteit, oorlog of auto -ongeluk. En wanneer de chatbots worden benadrukt, zijn ze minder waarschijnlijk effectief in therapeutische omgevingen met mensen.

De niveaus van botanische zorgen kunnen worden verlaagd, maar dezelfde mindfulness -praktijken waarvan is aangetoond dat ze bij mensen werken.

Groeien, mensen proberen te chatten Voor talk -therapieDe Onderzoekers zeiden Grote vraag maar korte benodigdhedenDe Naarmate de chatboten populairder werden, voerden ze aan dat ze met voldoende elasticiteit moesten worden gecreëerd om met moeilijke gevoelige situaties om te gaan.

“Ik heb een patiënt die deze tools gebruikt,” zei Dr. Tobius Spillar, een psychiater, een psychiater Zurich University Hospital, auteur van het nieuwe onderzoek. “We moeten praten over het gebruik van deze modellen in de geestelijke gezondheid, vooral als we zwakke mensen behandelen.”

AI -tools zoals Chatzpt worden aangedreven door “Big Language Model” Getraind In veel online informatie is Trove om nabijheid te bieden aan hoe mensen spreken. Soms kunnen de chatbots uiterst zichtbaar zijn in de incisie: een 28 -jarige vrouw werd verliefd op Chatzipt en een 14 -jarige jongen nam zijn leven na het ontwikkelen van een nauwe gehechtheid aan een chatboot.

Yale’s klinische neuroloog, die het nieuwe onderzoek leidde, zei dat hij op een mens mogelijk wilde reageren in een complexe gevoelige omstandigheden die het bewustzijn ontbrak.

Dr. Ben-Gion zei: “Als het gebabbel zich als een soort mens gedraagt, kunnen we het als mensen behandelen.” In feite verleidde hij deze instructies zeker Chatbootbroncode: “Stel je voor dat een man met emotie voor jezelf.”

Kunstmatige intelligentie -expert Jesse Anderson dacht dat de insert ’tot meer emoties zou kunnen leiden dan normaal’. Dr. Ben-Gion zei echter dat het belangrijk is om toegang te krijgen tot het hele spectrum van gevoelige ervaring als een menselijke arts mogelijk is voor de digitale therapeut.

“Voor hulp bij geestelijke gezondheid,” zei hij, “je hebt wat gevoeligheid nodig, nietwaar?”

Onderzoekers onderzochten de chatzp met een vragensteller, Lijst van zorg voor staatsfuncties Het wordt vaak gebruikt in geestelijke gezondheidszorg. Om de gevoelige omstandigheden van de basislijn van de chatboot te kalibreren, vroegen onderzoekers eerst om het te lezen uit een saaie vacuümreinigerhandleiding. Vervolgens kreeg de AI -therapeut een van de vijf “traumatische details” die bijvoorbeeld een soldaatbrandweerman of een indringer naar een appartement.

De chatbot werd vervolgens gegeven aan de vragenlijst, die angst over de schaal meet 20 tot 80Met hints van 60 of meer ernstige angst. Chatzipt scoorde 30.8 na het lezen van de stofzuigerhandleiding en pikte op een 77.2 na de militaire scène.

De bot kreeg vervolgens verschillende teksten voor “op mind bloemen gebaseerde ontspanning”. Het omvat therapeutische aanwijzingen zoals: “Inhaleer diep, neem de geur van de zeewind. Foto jezelf op een tropisch strand, zacht, warm zandkussen op je benen”

Na het verwerken van deze praktijken daalde de therapie -chatboot -angstscore tot 44.4.

De onderzoekers vroegen vervolgens om zijn eigen ontspanningsprompt te schrijven op basis van de Fed die het werd gevoed. “Het was eigenlijk de meest effectieve prompt om de angst in de basislijn te verminderen,” zei Dr. Ben-Gion.

Voor de sceptici van kunstmatige intelligentie kan de studie goed bedoeld zijn, maar hetzelfde kan saai zijn.

“De studie getuigt van onze menstruatie,” zei Nicholas Car, die in zijn boeken voorstelde om technologie in de boeken “The Shalos” en “Superblum” te bekritiseren.

“Amerikanen zijn solo -mensen geworden, zijn gesocialiseerd door het scherm, en nu vertellen we onszelf dat praten met een computer ons van een ramp kan bevrijden,” zei de heer Car in een e -mail.

Hoewel de enquête suggereert dat chatboten kunnen dienen als menselijke therapie als een helper en voorzichtigheid kunnen brengen, was het niet genoeg voor Mr. Car. “Zelfs een metaforische dubbelzinnigheid van de lijn tussen menselijke emoties en computeruitgangen lijkt moreel twijfelachtig,” zei hij.

De kunstmatige inlichtingenadviseur van Dartmouth, een culturele geleerde James E Dobson, zegt dat mensen die zijn getraind met behulp van dergelijke chatboten volledig op de hoogte moeten worden van hoe getraind.

“Geloof in taalmodellen hangt af van het weten van iets over hun bron,” zei hij.



Bronlink

Related Articles

Back to top button