Bakgrund Jaw-X (Boneprox, Sverige AB) är en mjukvara som används på tandvårdskliniker i Sverige. Denna används för att analysera den trabekulära benstrukturen i käkarnas benvävnad på röntgenbilder för att kunna hitta patienter med risk för osteoporos. Syftet med studien är att mäta intra- och interobservatorsöverensstämmelsen vid användning av mjukvaran och visuellt bedöma det trabekulära benstrukturen på intraorala röntgenbilder av underkäken. Detta för att analysera överensstämmelsen mellan de två metoderna. Material och metod Tvåhundratjugofyra intraorala röntgenbilder valdes slumpässigt ut från Boneprox databas. Sju observatorer analyserade och bedömde bilderna visuellt och med hjälp av Jaw-X mjukvara. Det trabekulära mönstret delades in i 3 grupper av observatorerna som grundades på benets morfologiska utseende. Resultat Den generella intra-och interobservatorsöverensstämmelsen i den semiautomatiserade bedömningen var högre jämfört med den visuella bedömningen. Överensstämmelsen mellan visuell bedömning och semiautomatiserad bedömning mättes som väldigt låg mellan samtliga observatorer. Slutsats Fler studier behövs på intra-och interobservatorsöverensstämmelsen för att bekräfta denna studies resultat.
Background Jaw-X (Boneprox, Sverige AB) is a software used in dental clinics in Sweden to analyze the trabecular bone pattern in radiographs of the jaw bone tissue, in order to find patients with high risk of osteoporosis. The aim of this study was to measure intra- and interrater agreement when using the software and visually assess the trabecular bone pattern in intraoral radiographs of the lower jaw. Fmiher to analyze the agreement between the two methods. Material and methods Twohundred and twentyfour intraoral radiographs were randomly selected from the Boneprox database. Seven raters analyzed and assessed the trabecular bone pattern on the images visually and with aid of the Jaw-X software. The trabecular pattern were classified into 1 of 3 groups by the raters which was based on the morphology of the bone. Results The overall intra-and interrater agreement in the semiautomated assessment was higher compared to the visual assessment. The agreement between visual assessment and semiautomated assessment was measured as very low between all raters. Conclusion More studies are required on intra- and interrater agreement in order to confirm the results of this study.