eupolicy.social is one of the many independent Mastodon servers you can use to participate in the fediverse.
This Mastodon server is a friendly and respectful discussion space for people working in areas related to EU policy. When you request to create an account, please tell us something about you.

Server stats:

239
active users

#gpt4

2 posts2 participants0 posts today

#CommunityContent

Der Einsatz von #GPT4 in der #Diagnostik zeigt Potenzial, doch aktuelle Studien belegen: Ohne gezielte #Schulung und klare Vorgaben bringt die Integration in den #Klinikalltag kaum Vorteile. Was ist nötig, um die Ergebnisse zu verbessern? Inwiefern kann die #KI Ärzt*innen unterstützen?

#Medizin #Gesundheitswesen #KINutzen

tino-eberl.de/nutzen-kuenstlic

Tino Eberl · GPT-4 in der Diagnostik: Kann die KI im Klinikalltag unterstützen?
More from Tino Eberl

🤖 AI
🔴 OpenAI Unveils Costly "o1-pro" Model

🔸 "o1-pro" promises improved reasoning but costs $150/million input tokens & $600/million output tokens.
🔸 Early tests show better reliability but struggles with logic puzzles.
🔸 Twice as costly as GPT-4.5 and 10x pricier than standard "o1".

#AI#OpenAI#o1pro

We cordially invite all interested parties at the Universität Stuttgart to our IRIS Colloquium on March 26, at 2 p.m., in Room 101 at Universitätsstr. 32.
🟦
Mara Seyfert will give her lecture, „Uncertainty and robustness against persuasion in large language models.“
🟦
Today's large language models (LLMs) excel at providing convincing answers across a broad spectrum of inquiries, with their conversational capabilities enabling them to closely align with users' needs. However, this adaptability is beneficial only to the extent as models remain robust to adopting wrong statements from user inputs.
🟦
Recent research demonstrates that even advanced models like GPT-4 can shift from initially correct answers to incorrect ones during multi-turn conversations solely due to user input. In my talk, I will present my research exploring how uncertainty in LLMs can provide insights into their robustness against persuasion while highlighting the specific challenges of quantifying uncertainty in these models.
🟦
The lecture is held in English. Registration is not necessary.
🟦
#LargeLanguageModels #AI #GPT #GPT4 #robustnessagainstpersuasion #AIResearch #MachineLearning #LLMs #ArtificialIntelligence #TechTalk #RobustAI #DataScience #AIethics #Innovation

Continued thread

Powerful #AI models, such as #OpenAI’s #GPT4 and Google #Gemini, also face extra obligations, such as having to be more transparent about how models are trained. Meta’s Joel Kaplan said the code risked imposing “unworkable and technically unfeasible requirements”.

#KINutzen
Der Einsatz von #GPT4 in der #Diagnostik zeigt Potenzial, doch aktuelle Studien belegen: Ohne gezielte #Schulung und klare Vorgaben bringt die Integration in den #Klinikalltag kaum Vorteile. Vor allem professionelles #PromptEngineering könnte die Ergebnisse verbessern. #KI kann Ärzt*innen unterstützen, ersetzt aber weder #Expertise noch #Verantwortung. Transparenz und ethische Standards sind essenziell.

#Medizin #Gesundheitswesen #Klinikalltag

tino-eberl.de/nutzen-kuenstlic

Tino Eberl · GPT-4 in der Diagnostik: Kann die KI im Klinikalltag unterstützen?
More from Tino Eberl

"Separately, the authors also tested several contemporaneous large language models (GPT-4, GPT-3.5 and Llama 3 8B). GPT-4's edit summaries in particular were rated as significantly better than those provided by the human Wikipedia editors who originally made the edits in the sample – both using an automated scoring method based on semantic similarity, and in a quality ranking by human raters (where "to ensure high-quality results, instead of relying on the crowdsourcing platforms [like Mechanical Turk, frequently used in similar studies], we recruited 3 MSc students to perform the annotation").

This outcome joins some other recent research indicating that modern LLMs can match or even surpass the average Wikipedia editor in certain tasks (see e.g. our coverage: "'Wikicrow' AI less 'prone to reasoning errors (or hallucinations)' than human Wikipedia editors when writing gene articles").

A substantial part of the paper is devoted to showing that this particular task (generating good edit summaries) is both important and in need of improvements, motivating the use of AI to "overcome this problem and help editors write useful edit summaries":"

meta.wikimedia.org/wiki/Resear

meta.wikimedia.orgResearch:Newsletter/2025/January - Meta

Moderne #KI-Modelle verblüffen mit ihrer Leistungsfähigkeit: Sie lösen komplexe Aufgaben, analysieren wissenschaftliche Texte und schreiben sogar Gedichte – sachlich präzise und sprachlich elegant. Doch ein neuer Test, "Humanity's Last Exam", zeigt die Grenzen dieser Technologie auf. Selbst Spitzenmodelle wie #GPT4 und Google #Gemini scheitern in vielen Bereichen. Interview mit Sören Möller 👨‍🔬 zu dem Test, der selbst die besten KI-Modelle scheitern lässt. 🎙 👉 fz-juelich.de/de/aktuelles/new

#KINutzen #Retröt
#KünstlicheIntelligenz kann effektiv #Verschwörungstheorien widerlegen. Durch gezielte Argumentation sank der Glaube an solche Theorien bei den Teilnehmenden um 20%. Die Chats hatten auch eine nachhaltige Wirkung auf die nächsten Monate. Die Ergebnisse zeigen, dass KI eine vielversprechende Unterstützung im Kampf gegen #Fehlinformationen sein könnte.

#KünstlicheIntelligenz #Verschwörungstheorien #Faktencheck #Studie #GPT4 #Science

tino-eberl.de/nutzen-kuenstlic

Tino Eberl · Künstliche Intelligenz widerlegt Verschwörungstheorien erfolgreich
More from Tino Eberl